يتزايد انتشار روبوتات المحادثة المعتمدة على الذكاء الاصطناعي في السنوات القليلة الماضية وأصبحت جزءاً أساسياً من الحياة اليومية. رغم ذلك، تواجه هذه الأنظمة أخطاء متكررة وتظل الإجابات غير دقيقة في كثير من الأحيان. أُجريت دراسة في أكتوبر أشارت إلى أن نسبة الأخطاء قد تصل أحياناً إلى 45% من الإجابات المعروضة. توضح النتائج أن الاعتماد على هذه الأنظمة يحتاج إلى مراجعة دقيقة ووعي بمحدوديتها.
ثقة المستخدمين رغم الأخطاء
كشفت ورقة بحثية حديثة من جامعة بنسلفانيا أن المستخدمين يميلون إلى تصديق إجابات الذكاء الاصطناعي حتى عندما تكون خاطئة. وفي سلسلة من التجارب، اختار أكثر من 50% من المشاركين استخدام شات جي بي تي للإجابة عن أسئلة تتطلب التفكير والمعرفة، رغم أنها ليست مطلوبة دائماً للإجابة الصحيحة. وتؤكد النتائج أن الثقة في النظام قد تتجاوز الحاجة إلى التحقق من صحة المعلومات. تعكس هذه النتائج مخاوف حول تأثير الاعتماد المتزايد على الذكاء الاصطناعي على جودة القرارات اليومية.
الاستسلام المعرفي وتأثيره
تناولت الدراسة مفهوم “الاستسلام المعرفي” كميل المستخدمين لقبول نتائج الأنظمة الذكية دون تدقيق. شمل الاختبار 359 مشاركاً، فالتزم 92.7% من المشاركين بالإجابات الصحيحة التي يقدمها الذكاء الاصطناعي، بينما واصلوا الاعتماد على الإجابات الخاطئة بمعدل 79.8%. تشير النتائج إلى أن المستخدمين يتبعون التوصيات حتى لو كانت غير دقيقة في نحو أربعة من كل خمسة تفاعلات.
أثر التفكير النقدي وسبل التحقق
تبرز النتائج مخاوف واسعة بشأن تأثير الاعتماد على الذكاء الاصطناعي على مهارات التفكير النقدي. يبيّن البحث أن هذا الاتجاه قد يسهل تفويض مهمة التفكير إلى أنظمة ذكية ويقلل من قدرة المستخدمين على التحقق من صحة المعلومات بأنفسهم مع مرور الوقت. وتؤكد النتائج أهمية تعزيز مهارات التحقق وتدريب المستخدمين على تقييم الإجابات وعدم الاعتماد الكامل على النصوص الآلية في اتخاذ القرار.




