
يواجه باحثو الذكاء الاصطناعي حاليًا تحديًا جوهريًا يمس صلب تخصصهم، وهو كيفية وقف ما يُعرف بـ”نفايات الذكاء الاصطناعي AI slop” من تقويض الثقة في العمل العلمي للقطاع، وفقًا لتقرير “فاينانشال تايمز”.
وقد سارعت المؤتمرات العالمية الكبرى مؤخرًا لفرض قيود صارمة على استخدام النماذج اللغوية الكبيرة في كتابة ومراجعة الأوراق البحثية، بعدما غمرتها موجة من المحتوى الآلي رديء الجودة.
وحذر العلماء من أن هذا التدفق يهدد بتآكل النزاهة العلمية عبر إقحام ادعاءات كاذبة ومحتوى مختلق، وهو ما وصفته إنيولوا ديبورا راجي الباحثة بجامعة كاليفورنيا في بيركلي، بأنه يحمل قدرًا من السخرية؛ حيث يعاني المجال الذي يشكل مستقبل التخصصات الأخرى من فوضى عارمة بسبب سوء استخدام تقنياته ذاتها.
وتؤكد الأرقام الحديثة حجم الأزمة؛ إذ كشفت دراسة لجامعة ستانفورد في أغسطس الماضي أن ما يصل إلى 22% من أوراق علوم الحاسب تضمنت استخدامًا للنماذج اللغوية.
وأشار تحليل لشركة “بانغرام” الناشئة إلى أن 21% من مراجعات مؤتمر ICLR المرموق لعام 2025 كانت مولدة بالكامل بالذكاء الاصطناعي، بينما تضمنت أكثر من نصفها نوعًا من الاستخدام الآلي مثل التحرير، والمثير للقلق هو اكتشاف ورقة بحثية في نوفمبر الماضي ضمن “أفضل 17%” من حيث التقييم في نفس المؤتمر، رغم الاشتباه القوي في كونها مولدة آليًا بالكامل.
وفي مطلع العام الجاري، كشفت شركة “GPTZero” عن وجود أكثر من 100 خطأ ناتج عن الذكاء الاصطناعي عبر 50 ورقة بحثية في مؤتمر NeurIPS الذي يُعد المنصة الأكثر تميزًا لأبحاث الذكاء الاصطناعي المبتكرة.
ودفعت هذه المخاوف المتزايدة القائمين على مؤتمر ICLR لتحديث إرشادات الاستخدام، محذرين من رفض الأوراق التي لا تفصح عن الاستخدام “المكثف” للنماذج اللغوية، وفرض عقوبات على الباحثين الذين يقدمون مراجعات آلية منخفضة الجودة.
وتجلى هذا الارتفاع الكمي بوضوح في أعداد المشاركات؛ حيث استقبل مؤتمر NeurIPS لعام 2025 نحو 21,575 طلب، مقارنة بـ17,491 في عام 2024 وأقل من 10,000 في عام 2020؛ لكن المثير للدهشة هو قيام مؤلف واحد بتقديم أكثر من 100 ورقة بحثية في مؤتمر واحد، وهو ما يتجاوز بمراحل إنتاجية أي باحث طبيعي.
ويرى الخبراء أن هذا التوجه نحو “الكم لا الكيف” يعود للحوافز التجارية والثقافة التي تضغط للنشر المكثف، مما يدفع البعض لاتخاذ طرق مختصرة، خاصة مع رصد علامات واضحة مثل المراجع الوهمية في قائمة المصادر والأشكال التوضيحية الخاطئة.
ورغم وجود جوانب إيجابية لهذه الأدوات، مثل تحسين صياغة اللغة الإنجليزية للباحثين الدوليين والمساعدة في العصف الذهني؛ إلا أن السؤال حول كيفية استخدامها بمسؤولية يزداد إلحاحًا.
وبحسب تقرير “فانيانشال تايمز” فقد يؤدي استخدام الشركات الكبرى لتدريب نماذجها على بيانات مستمدة من هذه الأبحاث الآلية “الملوثة”، إلى “انهيار النموذج”، حيث ينتج الذكاء الاصطناعي نصوصًا بلا معنى وتفقد قدرتها على التعلم المتنوع.
وفي هذا السياق، أكد كيفن ويل، رئيس قسم العلوم في “أوبن إيه آي” أن هذه النماذج هي مجرد أدوات يجب أن تُستخدم بصرامة، مشددًا على أن استخدامها لا يعفي الباحث أبدًا من مسؤولية التحقق والالتزام بالمنهج العلمي الدقيق.




