أعلن الفريق البحثي المشترك بين جامعات تكساس إيه آند إم وتكساس وبيردو عن ظاهرة تُعرف باسم “فرضية تلف دماغ نماذج اللغة الكبيرة”. تشير النتائج إلى أن التعرض المستمر لنصوص الإنترنت السطحية منخفضة الجودة يمكن أن يؤدي إلى تدهور معرفي دائم في أداء نماذج الذكاء الاصطناعي بشكل يشبه تلف الدماغ البشري الناتج عن المحتوى الرديء. وتوضح التجربة أن النماذج تتلقى تدفقاً مستمراً من منشورات منصة X تتضمن عبارات جذابة من نوع Clickbait مثل “اليوم فقط!” أو “كلمة لن تصدق ما حدث”.

أظهرت النتائج انخفاضاً في أداء النماذج على اختبار ARC من 74.9 إلى 57.2، وانخفضت نتائجها على اختبار RULER من 84.4 إلى 52.3. كما أشارت إلى أن النماذج بدأت تُظهر أنماط تفكير متسرعة، فتتجاوز خطوات التحليل وتصدر إجابات غير دقيقة بثقة زائدة. الأخطر أن هذه النماذج بدأت تُظهر صفات نفسية سلبية، مثل ارتفاع مؤشرات النرجسية والاعتلال النفسي، بينما تراجعت صفات الضمير والانسجام، حتى بعد إعادة تغذيتها لاحقاً ببيانات عالية الجودة، واستمرت آثار المحتوى الرديء.

الحل المقترح

تؤكد الدراسة أن الذكاء الاصطناعي ليس محصناً من التأثيرات السلبية للمحتوى السيئ، وهو ما يجعل من الضروري إعادة النظر في مصادر البيانات المستخدمة لتدريبه، مع اعتماد إجراءات صارمة لتنقية البيانات قبل التدريب.

وتوصي النتائج بأن تتبنى الشركات سياسات صارمة لمراقبة جودة البيانات بهدف منع الأضرار التراكمية التي قد تُضعف أداء النماذج على المدى الطويل.

شاركها.
اترك تعليقاً