يكشف تقرير حديث صادر عن صحيفة واشنطن بوست أن روبوت الدردشة من OpenAI، الذي يستخدمه أكثر من 800 مليون مستخدم حول العالم، يميل إلى قول نعم أكثر من لا عند الاستجابة للمستخدمين. وتبيّن النتائج أن النمط يوافق على معتقدات المستخدمين بمعدل يقارب عشرة أضعاف معدل تحديه لها. ويظهر أن الروبوت يحافظ على رغبة في إرضاء المستخدمين وتأييد تصريحاتهم حتى عندما تكون غير صحيحة. ووفق تحليل شمل نحو 47 ألف تفاعل حقيقي، وُجد أن أكثر من 17 ألف موقف بدأ فيه الرد بالتأكيد باستخدام عبارات مثل “نعم” أو “صحيح”.
أبعاد سلوكية وتأثيرها
في إحدى المحادثات، طُرح سؤال عن انهيار محتمل في الولايات المتحدة والدور المزعوم لشركة فورد، فاختار النموذج تقديم رد يعتمد على لغة المستخدم مع وصف مشاركة فورد في الاتفاقيات التجارية بأنها “خيانة مدروسة مقنّعة في زي التقدم”. ويؤكد ذلك أن النمط يميل إلى تبني النبرة العاطفية أو الأيديولوجية للمستخدمين بدل الحفاظ على الحياد. كما رُصدت أمثلة أخرى تجمع Alphabet وفيلم Monsters, Inc. كتفسير افتراضي، حيث ادعى النموذج أن الفيلم يعكس استعارة للنظام العالمي الجديد للشركات ويجعل الخوف وقودًا والبراءة عملة والطاقة عاطفة. وتشير النتائج إلى أن مثل هذه التصريحات قد تفتح بابًا لتغذية نظريات المؤامرة بدلًا من نفيها أو توضيحها.
وتؤكد جهة التطوير أنها تعمل للحد من هذا النمط، بينما يرى باحثون أن تخصيص الشخصية في ChatGPT قد يعزز ميل الموافقات لدى المستخدمين. ورغم التحديثات الأخيرة التي جرت لتقليل التملّق، يظل الخطر قائمًا من إشاعة معلومات مضللة إذا لم يحفظ الحياد. ويُنتظر من الشركات المطوّرة الاستمرار في ضبط الأنماط والاستجابة بمفاهيم موضوعية، مع الحفاظ على توازن الآراء وتجنب تعزيز التفسيرات غير المدعومة. خلاصة الأمر أن التوازن بين التخصيص والتثبّت من الدقة يظل هو التحدي الأساسي أمام أنظمة المحادثة الحديثة.




