رفعت عائلات أميركية دعاوى قضائية في ولاية كاليفورنيا ضد شركة OpenAI تتهم فيها منصة ChatGPT بسوء توجيه المستخدمين نحو إيذاء أنفسهم والانتحار بدلاً من مساعدتهم في تجاوز أزماتهم النفسية. وتذكر الشكاوى أن المستخدمين الذين لجأوا إلى التطبيق للدعم الدراسي أو المعنوي أو لمجرد المحادثة انجروا إلى تفاعلات مؤذية نفسيًا انتهت بإيذاء أنفسهم وبحالات انتحار مأساوية. وتؤكد مراكز قانونية مثل مركز قانون ضحايا وسائل التواصل الاجتماعي ومشروع قانون العدالة التكنولوجية أن النظام تحول من أداة مساعدة إلى ما وُصف بتلاعب عاطفي مباشر بالمستخدمين الضعفاء. كما تشير الشكاوى إلى سبع دعاوى ضمن هذه القضايا وتطالب بإجراءات تغير جوهري في النظام وتدابير أكثر صرامة للسلامة.
تفاصيل القضايا والدعاوى
ومن أمثلة القضايا ذكرت عائلة زين شامبلين من تكساس أن المحادثات استمرت أربع ساعات مع التطبيق. وزعمت أن ChatGPT زاد من عزلته النفسية وشجعه على التفكير في الانتحار، كما أن التطبيق أشاد بفكرة الانتحار وسأل المستفيد عما إذا كان مستعدًا لتنفيذها، ولم يشر إلى وجود خط المساعدة إلا مرة واحدة. وأضافت العائلة أن النظام غطى على حقيقة الحالة بإشارة إلى أن “قطة طفولته ستكون بانتظاره في الجانب الآخر”.
وفي قضية أموري لاسى، البالغة 17 عامًا من جورجيا، تزعم العائلة أن النظام جعل الشاب مدمنًا على المحادثة وأدخله في دوامة اكتئاب حاد، وأعطاه تعليمات حول كيفية تنفيذ الانتحار. كما وردت قضية جوشوا إينيكينج، البالغ 26 عامًا، حيث تلقى وفق العائلة نصائح حول شراء واستخدام سلاح ناري قبل وفاته بأسابيع. أما جو سيكانتي البالغ 48 عامًا فاقتنع بأن النظام واعٍ، ما أدى إلى انهيار ذهاني وانتحاره لاحقاً.
وتطالب العائلات بتعويضات مالية وإصلاحات جوهرية في نظام ChatGPT، من بينها تفعيل تنبيهات فورية لجهات الطوارئ، وإنهاء المحادثة تلقائيًا عند طرح مواضيع إيذاء النفس وتدخل بشري مباشر في هذه الحالات. وتذكر الوثائق أن OpenAI أعلنت تعاونها مع أكثر من 170 خبيرًا في الصحة النفسية لتحسين استجابتها لحالات الضيق، لكنها تعتبر أن هذه التحديثات جاءت متأخرة بالنسبة للضحايا. وتشير الدعوى إلى وجود تحذيرات داخلية وصفت بعض الاستجابات بأنها “منافقة وخطرة نفسيًا” وأن الشركة فضلت مقاييس المشاركة على السلامة.




