أعلن باحثون من جامعة ميشيغان وجامعة أوكلاهوما عن دراسة جديدة تقيم قدرة الذكاء الاصطناعي على فهم البشر والكشف عن الكذب. شملت الدراسة 12 تجربة أُجريت على أكثر من 19,000 مشارك بغرض تقييم ما إذا كانت نماذج الذكاء الاصطناعي تستطيع تمييز الخداع عن الحقيقة لدى البشر. اعتمدت الدراسة إطار نظرية الحقيقة الافتراضية (TDT) كمرجعية لمقارنة سلوك الذكاء الاصطناعي بسلوك البشر في مواقف مشابهة. ويؤكد المؤلف الرئيسي أن الهدف هو فهم إمكان مساهمة الذكاء الاصطناعي في كشف الخداع وتحليل البيانات الاجتماعية في البحث العلمي، مع تحذير من الاعتماد على نماذج لغوية كبيرة لكشف الكذب في الوقت الراهن.

إطار الدراسة والمنهج

أوضح ديفيد ماركويتز أن البشر يمتلكون ميلًا فطريًا إلى تصديق الآخرين، وأننا عادةً نفترض صدق الآخرين حتى وإن لم يتوفر دليل قاطع. ولتقييم أحكام الذكاء الاصطناعي، استخدم الباحثون منصة Viewpoints لأبحاث الذكاء الاصطناعي لتعيين وسائط سمعية وبصرية يعرضها البشر ليحكم عليها الذكاء الاصطناعي، ثم طُلب من محكمي الذكاء الاصطناعي تحديد ما إذا كان الشخص يكذب أم يقول الحقيقة وتقديم مبرر. وتم تقييم متغيرات مثل نوع الوسائط والخلفية السياقية والمعلومات أو الظروف التي تفسر سبب حدوث شيء ما.

نتائج الدراسة وتحذير من الاستخدام

تُشير النتائج إلى أن أداء الذكاء الاصطناعي لا يطابق الأداء البشري في كشف الكذب، وربما يبقى الطابع الإنساني عائقًا أمام تطبيق نظريات كشف الخداع على النماذج الذكية. ويضيف الباحثون أنه من السهل افتراض قدرة الذكاء الاصطناعي على كشف الكذب كخيار تقني محايد، لكن الواقع يظهر أن المسألة لا تزال بعيدة عن الثقة الكاملة. ويحذر البحث المتخصصين من الاعتماد على الذكاء الاصطناعي في كشف الكذب في الوقت الراهن، مع التأكيد على ضرورة تطوير أوسع ونماذج أكثر دقة قبل اعتمادها في الأبحاث أو التطبيقات العملية.

شاركها.