المصرية أغسطس 2023
المصرية أغسطس 2023

«ميتا» تختبر نظام جديد للذكاء الاصطناعي باسم FSL لاكتشاف المحتوى الضار في أسابيع

في جلسة حضرها عدد محدود من الصحفيين في الشرق الأوسط وأوروبا وإفريقيا والشرق الأدنى ومنهم «تكنولدج» استعرضت «ميتا»، تكنولوجيا الذكاء الاصطناعي والتعلم الذكي الجديدة التي تعتزم الشركة طرحها على منصاتها للكشف عن المحتوى الضار أو التحريضي وغيره من المحتوى غير المرغوب على المنصات التابعة مثل «فيسبوك» و«انستاجرام».

 

التقنية الجديدة والتي تحمل اسم FSL يمكنها تخفيض الوقت المطلوب للكشف عن المحتوى الضار من 6 أشهر إلى 6 أسابيع، وقالت الشركة ان التقنية الجديدة تشبه آله الجمع أو الاصطياد الأوسع نطاقًا للكشف عن المحتوى الضار.

 

ووفقًا للتصريح الرسمي للشركة فإن القدرة على البدء بسرعة في اتخاذ خطوات  ضد أنواع المحتوى التي لا تحتوي على الكثير من بيانات التدريب تساعد على جعل أنظمة الشركة أكثر مرونة واستجابة للتحديات الناشئة.

 

وقالت كورنيليا كارابتشيا، مديرة المنتج بفريق Meta للذكاء الاصطناعي، إن التقنية الجديدة تركز على تحليل المحتوى من كل من النص والصور والإعلانات وغيرها، مشيرة إلى أنه سيتم تطبيقها على أكثر من 100 لغة حول العالم، بما فيها اللهجات المختلفة للمناطق التي تتحدث لغة واحدة مثل اللهجات العربية المختلفة.

 

FSL أو التعلم سريع اللقطات هي واحدة من العديد من المجالات الذكاء الاصطناعي المتطورة التي تركز عليها الشركة مؤكدة على أنها تتوقع في القريب ان يظهر ذلك المنتج بشكل فعلي موضحة أنها تعلم على حل مشاكل البحث التي تتجاوز فهم المحتوى فقط، وتحاول استنتاج السياق الثقافي والسلوكي والحواري.

 

وتعتمد رؤية «ميتا» على المدى الطويل على تحقيق مرونة وفاعلية التعلم مثل الإنسان، مما يجعل أنظمة النزاهة أسرع وأسهل للتدريب وأكثر قدرة على العمل مع معلومات جديدة.

 

وأكدت كارابتشيا، على أن التقنية الجديدة على الرغم من أنها تعمل على منصات «ميتا» المختلفة مثل «فيسبوك» و«انستاجرام» باختلاف المحتوى سواء نص، أو صور، أو مقاطع فيديو فإنها لا يمكن تطبيقها على المحادثات المشفرة على كل من «واتساب» و«ماسنجر».

 

وأشارت تمكن «Few-shot Learner» من Meta للذكاء الاصطناعي من اكتشاف المنشورات التي قد تفوتها الأنظمة التقليدية وساعد في تقليل انتشار هذه الأنواع من المحتوى الضار. وهو يفعل ذلك من خلال الكشف بشكل استباقي عن المحتوى الضار المحتمل ومنعه من الانتشار على منصاتنا

اترك تعليقا