
كشفت دراسة تحليلية حديثة عن تحول تاريخي في طبيعة المحتوى المنشور على الإنترنت، حيث تفوق للمرة الأولى حجم المقالات التي تنتجها أدوات الذكاء الاصطناعي على تلك التي يكتبها البشر.
ووفقًا للبيانات التي نشرتها شركة Graphite المتخصصة في تحسين الظهور بمحركات البحث، فإن هذا التحوّل أصبح واضحًا اعتبارًا من نوفمبر 2024، بعد أن تصاعد بشكل متسارع منذ أواخر عام 2022.
ووفقًا للدراسة، فإن استخدام نماذج الذكاء الاصطناعي الكبيرة مثل ChatGPT، وClaude، وGemini، أصبح بديلًا واسع الانتشار لتوظيف كتّاب بشريين في مجالات عدة كإنشاء محتوى لمواقع الإنترنت، ومنصات التواصل الاجتماعي، والإعلانات الرقمية، لما يوفره من تكلفة وجهد وسرعة إنتاج.
لكن اللافت أن هذا النمو السريع الذي شهده المحتوى الآلي قد توقّف تقريبًا منذ مايو 2024، حيث استقرّت نسبته عند حدود 52% من إجمالي المقالات المنشورة على الويب، دون تسجيل أي ارتفاعات ملحوظة خلال الشهور التالية.
ورغم سيطرة المحتوى الآلي من حيث الكم، إلا أن الدراسة تشير إلى فجوة نوعية في مدى فعالية هذا المحتوى وتأثيره.
فعلى الرغم من أن نماذج الذكاء الاصطناعي تنتج مقالات بجودة تقارب المحتوى البشري؛ بل وتتفوق عليه أحيانًا كما أشارت دراسة من معهد MIT، إلا أن غالبية هذا الإنتاج لا يظهر ضمن نتائج محركات البحث، ولا يصل إلى الجمهور بالقدر المأمول.
ووفقًا لدراسة منفصلة أجرتها شركة Originality AI، فإن نحو 86% من المقالات التي تظهر في نتائج بحث “جوجل” كتبها بشر، بينما لم تتجاوز نسبة المحتوى الآلي الظاهر 14%.
وتشير هذه الأرقام إلى أن الانتشار لا يعني بالضرورة التأثير أو الوصول، حيث لا تزال محركات البحث تفضّل – أو على الأقل تُظهر – المحتوى الذي يُنتجه البشر.
كما لم تُحدّد الدراسة ما إذا كان تفاعل المستخدمين مع المقالات التي يكتبها الذكاء الاصطناعي يعادل تفاعلهم مع المحتوى البشري، غير أن التقديرات ترجّح أن يكون التفاعل مع النصوص البشرية أعلى بشكل ملحوظ.
تُظهر بيانات “Graphite” أن نسبة المحتوى الآلي بدأت بالارتفاع السريع بعد إطلاق ChatGPT في نوفمبر 2022، إذ وصلت إلى 39% من إجمالي المقالات المنشورة بحلول نوفمبر 2023، ثم تجاوزت عتبة النصف في العام التالي.
لكن هذا النمو تباطأ بشكل ملحوظ بعد منتصف عام 2024، لتستقر النسبة عند حدود 52% حتى مايو 2025، وسط توقعات بأن السبب يعود لتراجع الأداء في محركات البحث، مما خفّض من حماسة الناشرين للاعتماد المفرط على أدوات الذكاء الاصطناعي.
واستندت الدراسة إلى قاعدة بيانات “Common Crawl” الواسعة، والتي تُعد أحد أبرز مصادر أرشفة محتوى الإنترنت المتاح للعامة، وتُستخدم أيضًا في تدريب نماذج الذكاء الاصطناعي.
ومن خلال تحليل 65 ألف رابط إلكتروني تم اختياره عشوائيًا، تم تحديد المقالات المنشورة بين يناير 2020 ومايو 2025 والتي يزيد طولها عن 100 كلمة وتُصنّف كمقالات أو “قوائم”.
وتمت الاستعانة بخوارزمية SurferSEO للكشف عن المقالات المنتجة بالذكاء الاصطناعي، حيث جرى تقسيم كل مقال إلى فقرات من 500 كلمة لتحليل نمط كتابتها؛ وإذا تبين أن أكثر من نصف المحتوى تمت كتابته بواسطة نموذج ذكي، يُصنّف المقال كمنتج آلي.
ولضمان دقة التصنيف، اختبر الباحثون الخوارزمية على مقالات بشرية من عام 2020 –أي قبل انتشار أدوات الذكاء الاصطناعي– فكانت نسبة التصنيف الخاطئ للمحتوى البشري كآلي لا تتجاوز 4.2%.
كما تم اختبار 6009 مقالًا منشأة بواسطة نموذج GPT-4o، وتم تصنيف 99.4% منها بدقة كمقالات آلية.
وسلّطت الدراسة الضوء على نوع ثالث من المحتوى يصعب تصنيفه بدقة، يتمثل في النصوص التي يبدأ كتابها باستخدام الذكاء الاصطناعي كمسودة، ثم تُراجع أو تُحرر لاحقًا بواسطة بشر.
ولم يدخل هذا النوع من “المحتوى الهجين”، ضمن نطاق التحليل، ما يعني أن النسبة الحقيقية لاستخدام الذكاء الاصطناعي في كتابة المحتوى قد تكون أعلى مما كشفت عنه الأرقام.
كما أشار الباحثون إلى أن فعالية خوارزمية SurferSEO قد تختلف باختلاف نموذج الذكاء الاصطناعي المستخدم في إنشاء المقال، مما يفتح المجال لتفاوت في نتائج الكشف مع تنوّع النماذج وتطورها.