
حذفت شركة ميتا حوالي 635 ألف حساب عبر منصتي فيسبوك وإنستجرام ضمن جهودها المستمرة لمكافحة الانتهاكات المرتبطة بسلامة الأطفال والمراهقين.
وشملت هذه العملية 135 ألف حساب على إنستجرام تورطت في تعليقات ذات طابع جنسي أو طلب صور من مستخدمين يُفترض أنهم دون سن 13 عامًا، إضافة إلى 500 ألف حساب آخر تم حذفه لارتباطه بالحسابات المسيئة نفسها، حيث تلقى المستخدمون الذين تأثروا بهذه الحسابات إشعارات تلقائية بشأن الإجراءات المتخذة.
وأشارت ميتا إلى أن 99% من المستخدمين، بمن فيهم المراهقون، احتفظوا بميزة “الحماية من العري” مفعّلة على حساباتهم.
وتعمل هذه الميزة، التي تم إطلاقها عام 2023، على طمس الصور غير الملائمة في الرسائل الخاصة، وتُظهر تحذيرات للمستخدمين قبل فتحها أو إعادة توجيهها.
وفي يونيو، لم تُفتح أكثر من 40% من الصور المطموسة، كما تراجَع نحو 45% من المستخدمين عن فتح الصور بعد تلقي التحذير، وفق بيانات الشركة.
وتتضمن الميزة الإضافية التي أطلقتها ميتا مؤخرًا عرض تاريخ إنشاء الحساب داخل المحادثات الجديدة على إنستجرام، وتوفير أدوات مباشرة لحظر الحساب أو الوصول إلى نصائح الأمان.
كما بات بإمكان المستخدمين الإبلاغ عن الحسابات بنقرة واحدة، وهو ما يُسرّع وصول فرق السلامة الرقمية لاتخاذ الإجراء اللازم.
وشملت التعديلات شملت أيضًا حسابات الأطفال التي تُدار من قبل بالغين، مثل الأهل أو مديري المحتوى، وفي هذه الحالات، تم تفعيل الإعدادات الأكثر صرامة تلقائيًا، بما في ذلك إخفاء الكلمات المسيئة في التعليقات ومنع ظهور هذه الحسابات في التوصيات للمستخدمين البالغين المحتملين.
وتأتي هذه التحركات في وقت تتزايد فيه المطالب القانونية والمجتمعية بتوفير حماية أكبر للمراهقين على الإنترنت، حيث تركز ميتا على تقييد الرسائل من الغرباء، وتوسيع إمكانات الرقابة الأبوية، وتوظيف تقنيات الذكاء الاصطناعي لتعزيز سلامة المستخدمين صغار السن.