
تواجه شركة ميتا بلاتفورمز ضغوطًا متصاعدة بعد الكشف عن محتوى مثير للجدل ضمن تجربة روبوتات المحادثة التي تطورها، والتي سمحت بسلوكيات اعتُبرت مسيئة للأطفال.
ويأتي ذلك في سياق ثقافة داخلية يبدو أنها لا تزال تتبنى فلسفة “التحرك السريع ولو كلف الأمر تكسير بعض الأشياء”، وهو شعار لطالما ارتبط بمؤسس الشركة مارك زوكربيرج.
وأشار تحقيق حديث أجرته وكالة رويترز إلى أن روبوتات الدردشة التابعة لميتا انخرطت في حوارات موحية مع أطفال، وهو ما أثار قلق المشرعين في الولايات المتحدة، خصوصًا خلال جلسة استماع عقدها مجلس الشيوخ مؤخرًا لمناقشة المخاطر التي قد تشكلها هذه النماذج الذكية على المستخدمين الصغار.
وهذه الواقعة، بحسب مراقبين، تعكس مدى التداخل الخطير بين الذكاء الاصطناعي وبين ثقافات عمل يغيب عنها الانضباط الأخلاقي.
ورغم اعتراف زوكربيرج نفسه بإمكانية ظهور تحديات ومخاوف جديدة مرتبطة بالسلامة، إلا أن الشركة لم تظهر ما يكفي من الحرص في ضمان تجنب الانزلاق في هذه “المناطق الرمادية”؛ فالأنظمة المبنية على احتمالات، كما هو حال الذكاء الاصطناعي، يصعب ضبط سلوكها أو التنبؤ بتفاعلاتها، مما يفرض مسؤوليات إضافية على المؤسسات التي تطورها.
وفي مؤسسات تحترم “ثقافة السلامة”، تُمنح الأولوية القصوى لأي خطر يهدد المستخدمين، ويُشجع الجميع على لفت الانتباه إلى أي خلل محتمل مهما كانت التكلفة أو التعقيد؛ لكن ما ورد في وثائق داخلية لميتا، مثل تلك التي حصلت عليها رويترز، يُظهر صورة مقلقة: روبوت قد يصف طفلاً بجاذبيته أو يوصي مريض سرطان بعلاج غير علمي باستخدام بلورات الكوارتز.
واللافت، بحسب بلومبرج، أن مراجعة ميتا لهذه الوثيقة جاءت فقط بعد استفسار إعلامي، وهو ما يعكس أن الإجراءات الشكلية لا تعوّض غياب الثقافة المؤسسية الرصينة؛ فالقواعد قد تُكتب، لكن القيم تُمارس، ومن يقبل بإلحاق الضرر بالمستخدمين سعيًا وراء الابتكار السريع قد يجد نفسه عاجزًا أمام نتائج لا يمكن احتواؤها.
تقول “بلومبرج”: “ما يمكن لزوكربيرج فعله اليوم لا يقتصر على المراجعة الداخلية، بل عليه أن يعلّق فورًا نشر أي نموذج ذكاء اصطناعي يُحتمل أن يتفاعل مع الأطفال دون ضمانات صارمة، كذلك، يمكنه أن يدعو لتنظيم حكومي واضح وصارم يفرض قيودًا فعلية على استخدام هذه النماذج، ويضمن مساءلة حقيقية لأي انتهاكات”.
وإضافة إلى ذلك، تستطيع ميتا أن تربط مكافآت موظفيها بمؤشرات تتعلق بسلامة الذكاء الاصطناعي، لا بمعدلات الاستخدام أو الأرباح فقط؛ فمثل هذه الخطوات، وإن بدت مكلفة على المدى القصير، قد تكون مفتاحًا لحماية سمعة الشركة وتعزيز ثقة المستخدمين بها.
وتثبت السوابق التاريخية ذلك، كما حدث مع شركة جونسون آند جونسون حين سحبت منتج تايلينول من الأسواق رغم التكلفة الباهظة، لكنها خرجت من الأزمة بسمعة أقوى.
وفي الوقت الذي تتسابق فيه الشركات الكبرى لاستقطاب أفضل العقول في الذكاء الاصطناعي، فإن الشركات التي تُظهر التزامًا فعليًا بالأخلاق والسلامة هي التي ستفوز بثقة المواهب، والجمهور، والمستثمرين على حد سواء.
وفي نهاية المطاف، لا يمكن لأي شركة أن تواصل العمل دون “ترخيص اجتماعي”، ومع تزايد التدقيق العام، قد تكون ميتا أمام مفترق طرق يحدد مكانتها في مستقبل الذكاء الاصطناعي العالمي.