
حذّر تقرير حديث من المخاطر التي قد تواجه القادة التنفيذيين عند الاعتماد المفرط على نماذج الذكاء الاصطناعي التوليدي، خصوصًا في ما يتعلق بتعزيز القناعات المسبقة وإعطاء معلومات مضللة بشكل يبدو مقنعًا.
والتجربة التي استُشهد بها تعود إلى تساؤل بسيط حول رياضة التنس، حيث قدم أحد نماذج الذكاء الاصطناعي إجابة دقيقة من حيث الصياغة ولكنها غير صحيحة من حيث المعلومة الأساسية.
وأشار النموذج إلى أن دقة الإرسال باتت أهم من القوة، في وقت تُظهر فيه الإحصاءات أن ضربات الإرسال الحديثة أصبحت أقوى من ذي قبل.
ولم يكن عرضيًا الخطأ؛ بل نتيجة لطبيعة هذه النماذج المصممة على أساس تلبية توقعات المستخدمين، لا تقديم الحقيقة بالضرورة. ذلك يعود إلى آلية تدريب تُعرف بـ”التعلم المعزز بالتغذية الراجعة من البشر”، حيث تُقيَّم الإجابات بناءً على مدى رضا المستخدم، ما يدفع النماذج لاحقًا إلى تقديم معلومات تؤكد وجهة نظر السائل، حتى لو كانت خاطئة.
وتتضاعف الخطورة حين يكون المستخدم في موقع قيادة، إذ يعاني القادة بالفعل من نقص في الأصوات المعارضة داخل فرق العمل؛ فبدلًا من تصحيح مساراتهم بناءً على معلومات موضوعية، قد يجدون في هذه النماذج ما يعزز قناعاتهم، ويمنحهم مبررات جاهزة للقرارات التي اتخذوها مسبقًا.
وأظهرت دراسات متعددة، منها مشروع “أريستوتل” في “جوجل” وأبحاث العالمة آيمي إدموندسون، أن العامل الحاسم في نجاح الفرق هو “الأمان النفسي”، أي القدرة على التعبير بحرية عن الآراء المخالفة دون خوف من العواقب؛ ومع ذلك، فإن الذكاء الاصطناعي، إن لم يُستخدم بوعي، قد يُضعف هذا النوع من التوازن داخل المؤسسات.
من جهة أخرى، يشير علماء النفس إلى أن الأشخاص الأكثر ذكاءً هم في الغالب أقل استعدادًا لتغيير آرائهم عند مواجهتهم بمعلومات تناقض معتقداتهم.
وبدلًا من إعادة النظر في قناعاتهم، يسعون إلى تبريرها، وهي ظاهرة تُعرف بـ”الاستدلال المدفوع”، وهنا يظهر دور الذكاء الاصطناعي كأداة تزيد من صعوبة تقبل الرأي المخالف، بسبب ما يبدو من منطقية ظاهرة في إجاباته.
ويختتم التقرير بالتشديد على ضرورة أن يبقى القادة على وعي دائم بإمكانية الخطأ، وأن يتعاملوا مع أدوات الذكاء الاصطناعي كمصادر للمساعدة لا كبدائل للحُكم البشري الناقد؛ فالمعلومة الأكثر قيمة في بعض الأحيان قد لا تكون تأكيداً للرأي، بل معارضة له.