نموذج «GPT-4o» للذكاء الاصطناعي يفهم اللغات ويحلل المشاعر

 

أعلنت شركة OpenAI عن نموذج الذكاء الاصطناعي (GPT-4o) الجديد، الذي يأتي بالعديد من المزايا الجديدة التي تجعله أسرع في الأداء، وأكثر كفاءة.

قالت ميرا موراتي، كبيرة المسؤولين التقنيين في شركة OpenAI إن الشركة تسعى إلى إتاحة قدرات الذكاء الاصطناعي عبر (ChatGPT) للجميع، لذلك ستتيح نموذج (GPT-4o) الجديد للمستخدمين مجانًا.

الاستجابة السريعة

يمكن لـ GPT-4o الاستجابة للمدخلات الصوتية في أقل من 232 ميلّي/ الثانية، بمتوسط قدره 320 ميلّي/ الثانية، كما زودت الشركة نموذجها الجديد بأساليب مبتكرة لفهم الأصوات المتداخلة لمجموعة متحدثين بلغات مختلفة، والترجمة بينها مباشرة، كما أنه يستطيع فهم نبرة الأصوات، وتحليل ملامح الوجوه وفهم المشاعر من خلالها.

فهم اللغات الحية

كما أشارت الشركة إلى أن هذا النموذج الجديد يحاكي أداء نموذج (GPT-4 Turbo) في التعامل مع النصوص باللغة الإنجليزية وعمليات البرمجة، ولكنه أسرع في التعامل مع اللغات الأخرى، حيث يتعامل مع 50 لغة، ومنها العربية والروسية والصينية والكورية وغيرها.

تحليل المشاهد والصور

ويفهم GPT-4o المواد المرئية والمقاطع الصوتية  ويمكنه تحليل المشاهد وفهم المعنى من خلال الصوت، بالإضافة إلى تعرف المشاعر، والمساعدة في حل المعادلات الرياضية.

ومن خلال الطرح الجديد مكنت OpenAI أكبر مطور لروبوتات الذكاء الاصطناعي حاليًا استخدام تحليل الأشكال مثل الخرائط والرسوم البيانية.

 

 

اترك تعليقا