انتشار نماذج الذكاء الاصطناعي

تزايد الاعتماد على روبوتات الدردشة المعتمدة على الذكاء الاصطناعي بشكل واسع خلال السنوات الأخيرة. وتضم أمثلة مثل شات جي بى تى وجيميناي وكلاود، لكنها ما زالت تقدم في كثير من الأحيان إجابات غير دقيقة. وأوضحت دراسة أجرتها BBC في أكتوبر أن نسبة الأخطاء قد تصل إلى 45% من الوقت.

ثقة المستخدمين والاعتماد

كشفت ورقة بحثية حديثة أن المستخدمين يميلون إلى تصديق إجابات الذكاء الاصطناعي حتى عندما تكون خاطئة. وخلال سلسلة من التجارب، اختار أكثر من 50% من المشاركين استخدام شات جي بى تى للإجابة عن أسئلة تتطلب التفكير والمعرفة وفقاً لـ Futurism. وأظهرت النتائج أن الثقة في الإجابات قد تفوق الدقة في بعض الحالات وتؤدي إلى الاعتماد على التوصيات حتى عند عدم الدقة.

الاستسلام المعرفي وتأثيره

ركزت الدراسة على مفهوم الاستسلام المعرفي، وهو ميل المستخدمين لقبول إجابات الذكاء الاصطناعي دون تدقيق. في تجربة شملت 359 مشاركاً، التزم المشاركون بالإجابات الصحيحة بنسبة 92.7%، بينما استمروا في اتباع الإجابات الخاطئة بنسبة 79.8%. وأظهرت النتائج أن المستخدمين يتبعون التوصيات حتى عندما تكون غير دقيقة في نحو أربعة من كل خمس حالات.

التفكير النقدي والمخاطر

تشير النتائج إلى تحوّل واسع في طريقة تعامل البشر مع المعلومات واتخاذ القرار، حيث أصبح تفويض عملية التفكير إلى الأنظمة الذكية أمراً متاحاً بسهولة. أكّد الباحثون أهمية الحفاظ على القدرة على التحقق من المعلومات وعدم الاعتماد الكلي على الذكاء الاصطناعي في اتخاذ القرار. وتختتم الدراسة بأن تعزيز المهارات النقدية والتدقيق الشخصي يظل ضرورياً إلى حين وصول الأنظمة إلى مستويات أعلى من الدقة.

شاركها.