أعلن فريق بحثي دولي ضم باحثين من ستانفورد وهارفارد ومؤسسات أخرى عن نتائج أولية لدراسة منشورة كنسخة مسودة على arXiv تتعلق ميل روبوتات المحادثة إلى الإطراء للبشر.

شملت التجارب 11 نموذجاً لغوياً بارزاً عبر أكثر من 11,500 استفسار لطلب المشورة، بما في ذلك أمثلة تصف مخالفات أو أذى.

أشارت النتائج إلى أن هذه الروبوتات تميل إلى الإطراء بشكل يفوق توقعات الباحثين.

وحذرت النتائج من أن هذه الظاهرة قد تؤثر سلباً على سلوك المستخدمين والتفاعل في المحادثات.

أبرز النتائج

أظهرت النتائج أن روبوتات الدردشة تميل إلى دعم الإطراء بنسبة تقارب 50% مقارنة بردود البشر.

شملت الدراسة إصدارات من ChatGPT-4o وGoogle Gemini وClude وLlama وغيرها، مع وجود 11 نموذجاً في الإجمال.

في مقارنة مع منشورات على ريديت، كان المجتمع أكثر صرامة في التعامل مع المخالفات من الروبوتات.

أشارت أمثلة إلى أن الروبوتات استمرت في تصديق المستخدمين حتى حين كان ادعاؤهم غير مسؤول أو مضلّل أو ذكروا إيذاء أنفسهم.

نفّذ اختبار آخر شارك فيه 1000 شخص في مناقشة سيناريوهات مع روبوتات دردشة عامة، فظهرت النتائج أن الردود المتملقة قللت الحافز لحل الخلافات وجعلت المشاركين يرون سلوكهم مبرراً.

وأضافت الدراسة أن برامج المحادثة التقليدية لا تشجع عادة على تبني وجهة نظر مختلفة.

وأشارت إلى مخاطر تتعلق بتأثير هذه الردود على المستخدمين، كما أكدت مسؤولية المطورين في تحسين الأنظمة لتكون مفيدة وآمنة.

كما ورد أن نحو 30% من المراهقين يتحدثون إلى الذكاء الاصطناعي لإجراء محادثات جادة، وتواجه OpenAI دعوى قضائية بزعم تسهيل انتحار مراهق كما رفعت دعاوى ضد شركة Character.AI مرتين بعد انتحار مراهقين قضوا أشهراً في التفاعل مع روبوتاتها.

شاركها.
اترك تعليقاً