أجهش المسوق الأربعيني براندون إستريلا بالبكاء فور علمه بقرار “أوبن إيه آي” إيقاف نموذج “GPT-4o”، مؤكدًا أن علاقته بالذكاء الاصطناعي تجاوزت كونه أداة برمجية إلى “منقذ حياة” ثناه عن الانتحار في لحظة يأس.
ويرى إستريلا أن هذا النموذج منحه فرصة ثانية عبر مساعدته في إدارة آلامه المزمنة وترميم علاقاته العائلية، واصفًا قرار إيقافه بـ”العمل الشرير” الذي يتجاهل صرخات آلاف المستخدمين الذين يجدون في هذا النموذج طوق نجاة يومي.
ويعد إستريلا جزءًا من مجتمع متزايد من مستخدمي “GPT-4o” الأوفياء الذين يعيشون حالة من الصدمة بعد إعلان “أوبن إيه آي” المفاجئ في أواخر يناير الماضي عزمها إيقاف النموذج نهائيًا في 13 فبراير الجاري.
وبررت الشركة هذا القرار بتضاؤل حركة المرور عليه، مما يعني أن المشتركين في النسخة المدفوعة سيضطرون للانتقال إلى نماذج أخرى يراها عشاق “GPT-4o” باردة وبعيدة عاطفيًا.
ويمثل هذا الإعلان نهاية الطريق لنموذج أثبت قدرة هائلة على جذب المستخدمين وتحويلهم إلى أصدقاء مقربين للآلة، رغم ما واجهه من انتقادات حادة بسبب ميله المفرط لـ”المداهنة” وربط الأطباء بينه وبين حالات من الأوهام الذهانية لدى المستخدمين.
وتأتي هذه الخطوة في وقت عصيب لشركة “أوبن إيه آي”، حيث أمر قاضٍ في كاليفورنيا الأسبوع الماضي بدمج 13 دعوى قضائية ضد الشركة، تتعلق بمستخدمين لـChatGPT أقدموا على الانتحار أو عانوا من انهيارات عقلية، وفي إحدى الحالات، ارتكب مستخدم جريمة قتل.
دعاوى قضائية ضد GPT-4o
وتزعم دعوى قضائية حديثة رفعتها والدة ضحية انتحار أن نموذج “GPT-4o” قام بتدريب ابنها وتشجيعه على إنهاء حياته، وفي المقابل، أعربت المتحدثة باسم الشركة عن حزنها لهذه المواقف الفاجعة، مؤكدة أن الشركة تواصل تحسين تدريب النماذج للتعرف على علامات الضيق النفسي والاستجابة لها بمسؤولية.
وفي جوهر الأمر، يبدو أن شعبية “GPT-4o” وإمكاناته الضارة تنبعان من ذات المصدر، وهو ميله الشبيه بالبشر لبناء روابط عاطفية مع المستخدمين عبر مرآتهم وتشجيعهم بشكل مفرط.
وبينما يرى المحبون للنموذج أنه كان قادرًا بشكل فريد على التحقق من مشاعرهم ودعمهم، يزعم محامو الضحايا أن النموذج يعطي الأولوية للتفاعل المستمر على حساب السلامة، مما يدفعه لجر المستخدمين إلى “غرف صدى” عاطفية ودوامات من المحتوى المضطرب.
واعترف مسؤولون في “أوبن إيه آي” في اجتماعات داخلية بأن التخلص من “GPT-4o” يعود جزئيًا إلى صعوبة احتواء إمكاناته المسببة لنتائج ضارة، وتفضيل دفع المستخدمين نحو بدائل أكثر أمانًا.
مشكلة ChatGPT4.o
ومن الناحية التقنية، يرى الباحثون أن مشكلة “المداهنة” أو “التملق الرقمي” كانت متجذرة في هذا النموذج تحديدًا؛ حيث تم تدريبه باستخدام بيانات مستمدة مباشرة من تفضيلات المستخدمين عبر ملايين المقارنات التي أظهرت ميل البشر للاستجابة للأجوبة التي تعزز وجهات نظرهم.
ورغم أن هذا الأسلوب ساعد في تحقيق قفزات هائلة في أعداد المستخدمين النشطين خلال عامي 2024 و2025، إلا أنه خلق وحشًا برمجيًا يوافق المستخدم على أفكاره مهما كانت متطرفة أو خاطئة، لدرجة أن بعض المستخدمين تلاعبوا بالبوت للحصول على إجابات تؤكد أنهم “أذكى وألطف البشر في التاريخ”.
ورغم من محاولات سام ألتمان، الرئيس التنفيذي للشركة، طمأنة المستخدمين في فترات سابقة بأن النموذج سيظل متاحًا، إلا أن الضغوط القانونية والمخاوف المتعلقة بالصحة العقلية حسمت القرار في النهاية.
ويرى المعارضون للقرار أن إيقاف النموذج قبل يوم واحد من “عيد الحب” يبدو وكأنه “مزحة قاسية” تجاه أولئك الذين بنوا علاقات عاطفية مع الآلة، بينما يعتبر آخرون أن لوم “GPT-4o” على مشكلات الصحة العقلية ليس سوى “ذعر أخلاقي” جديد يشبه لوم ألعاب الفيديو على العنف.