أعلن اتحاد البث الأوروبي والـ BBC نتائج دراسة حديثة كشفت أن ما يقرب من نصف الردود التي قدمتها برامج المساعدة الرقمية المدعومة بالذكاء الاصطناعي كانت تحتوي على معلومات مضللة أو غير دقيقة عند الإجابة على أسئلة تتعلق بالأخبار. وشملت الدراسة 3000 رد من مساعدات رقمية شهيرة وأُجريت عبر 14 لغة، مع تقييم الدقة والمصادر والتمييز بين الحقيقة والرأي. وأظهرت النتائج وجود مشاكل في تحديد المصادر وتوفر إسناد موثوق، مما يثير مخاوف حول الثقة والدقة وتأثير ذلك على المشاركة الديمقراطية. كما أشار البحث إلى أن الاعتماد المتزايد على هذه المساعدات يضع ضغوطاً على صناعة الذكاء الاصطناعي لتحسين جودة النتائج ومساءلة الشركات التي تتيح هذه التقنية.
دقة المصادر والهلوسة المحتملة
بينت الدراسة أن 45% من الإجابات تضمنت مشكلة رئيسية واحدة على الأقل، في حين امتدت المشكلات إلى 81% من الإجابات بشكل أو بآخر. وأظهر نموذج جيميني من غوغل معدل مشاكل في الإسناد وصل إلى 72%، وهو أعلى من المعدلات التي سجلها المساعدون الآخرون التي لم تتجاوز 25%. كما أظهرت النتائج وجود مشاكل تتعلق بالدقة في نحو 20% من الإجابات، بما فيها معلومات قديمة وأخطاء واقعية. وعلى نحو أمثلة ذكرت تقارير جيميني عن تغييرات في القوانين الخاصة بالسجائر الإلكترونية المستعملة لمرة واحدة وتقرير تشات جي بي تي الذي ادعى أن البابا فرانسيس كان البابا الحالي بعد وفاته.
مع تزايد الاعتماد على مساعدي الذكاء الاصطناعي في الوصول إلى الأخبار، أشارت النتائج إلى أن نحو 7% من جميع مستخدمي الأخبار عبر الإنترنت و15% ممن تقل أعمارهم عن 25 عامًا يستخدمون هذه البرمجيات للوصول إلى الأخبار. وتُلزم النتائج شركات التقنية بمزيد من المسؤولية لضمان دقة منتجاتها ومصادرها وإسنادها بوضوح. كما أشارت Perplexity إلى أن أحد أوضاعها للبحث العميق يركز على تحسين دقة الحقائق وتحقق دقة واقعية تبلغ نحو 93.9%.
وحذر الاتحاد من المخاطر المحتملة لانتشار الأخطاء في مساعدات الذكاء الاصطناعي وأكد على أهمية توافر معلومات موثوقة ومصادر واضحة عند الاستفسارات الخاصة بالأخبار. وشدد على تحمل شركات التقنية المسؤولية وتحسين كيفية استجابة هذه المساعدات للاستفسارات المرتبطة بالأخبار. وأكدت النتائج أن وجود صعوبات في التمييز بين الحقيقة والرأي كان دائماً من بين التحديات، رغم إدراك الشركات لهذه القضايا ووجود حاجة مستمرة إلى تحسينات. كما أشار التقرير إلى مشكلة الهلوسة التي تنتج عنها معلومات غير صحيحة أو مضللة، وهي مسألة تعمل شركات مثل OpenAI وMicrosoft على معالجتها وتطوير حلول أكثر شفافية ومسؤولية.


