يعلن جون براندون عن فائدة نماذج الذكاء الاصطناعي التوليدية مثل ChatGPT في تسريع الوصول إلى المعلومات وتسهيل العمل البحثي. ومع ذلك، يسلط الضوء على مشكلة جوهرية وهي الهلوسة، أي ميل النموذج لاختلاق حقائق وتقديمها بثقة عالية. ويصف هذه الظاهرة بأنها تشبه موسوعة عصرية تتطلب التحقق المستمر خارج النظام. ويؤكد أن الاعتماد على هذه النظم يقتضي وجود آليات تحقق خارجية لضمان موثوقيتها في الاستخدامات الحساسة.

اعتمد براندون على نموذج Google Gemini كأداة للتحقق من صحة المعلومات التي تقدمها نماذج المحادثة. يرى أنه أكثر دقة نتيجة ارتباطه بسمعة جوجل كمحرك بحث ويعمل كنظام تدقيق ومراجعة. أظهر الاختبار أن Gemini يكشف عن أخطاء تاريخية في ظهور السيارات الكهربائية ونسبها إلى عقود خاطئة، كما أشار إلى أن تشات جي بي تي نسب كلمات أغنية إلى فرقة موسيقية واختلق معنى لكل بيت. وتشير النتائج إلى أن Gemini يفرض دقة في التصحيح ورفض المعلومات الخاطئة، وهو ما يمنح نواتج الحوار ثقة أكبر حتى عند وجود أخطاء طفيفة.

شاركها.