
ناقش تقرير على “فاينانشال تايمز” القلق السائد حول ما إذا كان الذكاء الاصطناعي قد يصبح ذكيًا بما يكفي لتدمير البشرية، مؤكّدًة أنَّ “أبرز إخفاقات الذكاء الاصطناعي خلال 2025، كانت تلك التي وقع فيها بشر بسبب اعتمادهم على ما يُقال إنه شكل (بدائي نسبيًا) من الذكاء الاصطناعي المتاح اليوم”.
وتشير الصحيفة إلى أنَّ “الذكاء الاصطناعي قد يكون تكنولوجيا محايدة أو غير مؤذية في ذاتها؛ لكن القائمة تذكّر بأن صفات بشرية خالصة مثل الكسل والطمع والطموح تجعلنا فريسة سهلة لها”.
الإعلام
وتجلت هذه الصفات بوضوح في مجال الإعلام، حيث بدأ العام بتلقي بعض مستخدمي تطبيق هيئة الإذاعة البريطانية “بي بي سي” خبرًا صادمًا مفاده أن نجم التنس الإسباني رافاييل نادال قد أصبح برازيلي الجنسية، وكشف في الوقت نفسه أنه مثلي الجنس.
وأوضحت “بي بي سي” لاحقًا أن ملخص الأخبار الذي تضمن هذه المعلومات الخاطئة تم توليده بواسطة ميزة تعتمد على الذكاء الاصطناعي أطلقتها شركة آبل لمستخدمي أحدث هواتف آيفون؛ معلنة أنّها علّقت هذه الميزة لاحقًا.
وأثار ذلك تساؤلات حول الضغوط التنافسية التي قد تدفع شركة تقنية كبرى إلى إطلاق أدوات غير ناضجة، وعاد هذا السؤال إلى الواجهة بعد أشهر، عندما أعلنت صحيفة شيكاغو صن-تايمز أنها مرت بـ”لحظة تعلم” عقب نشر قائمة مقترحة لقراءات صيفية تضمنت كتبًا لا وجود لها من الأساس.
وتبين أن القائمة أعدها صحفي مستقل يعمل مع أحد “شركاء المحتوى” للصحيفة، واعتمد في إعدادها على أدوات ذكاء اصطناعي.
وبعد ذلك بأشهر قليلة، ظهرت واقعة مشابهة في باكستان، حيث اضطرت صحيفة Dawn إلى الاعتذار عن تقرير حول مبيعات السيارات انتهى بإدراج مطالبة صريحة من الذكاء الاصطناعي نفسه لجعل المقال “أكثر جاذبية” عبر “إحصاءات سريعة وقوية” لتحقيق “أقصى تأثير على القارئ”.
يقول كاتب التقرير: “الأخطاء في الصحافة أمر وارد؛ لكن المقلق هو تخيّل صناعة تعاني أصلًا من أزمات مالية، وتنجذب بشكل متزايد إلى أدوات ذكاء اصطناعي لتقليل التكاليف، رغم أنها قد تضاعف الأخطاء بدلًا من الحد منها”.
الطبّ
لكن الأمر يختلف عندما يتعلق الأمر بالمعلومات الطبية التي يقدمها الذكاء الاصطناعي؛ فقد انتهى الأمر بأحد الأشخاص إلى دخول المستشفى بعد أن اعتمد على نصائح مولّدة بالذكاء الاصطناعي لتقليل استهلاكه من الملح، ليصاب بحالة تُعرف باسم التسمم بالبروم.
ودفع ذلك باحثين في أغسطس إلى التحذير من أن استخدام الذكاء الاصطناعي للحصول على نصائح طبية قد يؤدي إلى “نتائج صحية سلبية يمكن تجنبها”.
القانون
ولا يقتصر الأمر على الإعلام والطب؛ فقد شهد المجال القانوني سلسلة من الإخفاقات المرتبطة بالذكاء الاصطناعي.
ففي أستراليا، اعتذر محامٍ بارز لقاضٍ في قضية قتل تأخرت بسبب مذكرات قانونية مدعومة بالذكاء الاصطناعي تضمنت اقتباسات مختلقة وقضايا غير موجودة، وعلّق القاضي قائلًا: “دون مبالغة، الطريقة التي تطورت بها هذه الأحداث غير مرضية”.
ويمكن تتبع مثل هذه الوقائع عبر قاعدة بيانات متخصصة ترصد الأحكام القضائية التي تضمنت ما يُعرف بـ”هلوسات” الذكاء الاصطناعي، وقد سجلت القاعدة نحو 700 حالة منذ أبريل 2023، أي بعد خمسة أشهر فقط من الإطلاق العلني لـChatGPT.
الخدمات الأخرى
ولا يبدو أن بقية الخدمات المهنية بمنأى عن ذلك؛ فقد شعر كثير من الاستشاريين بالقلق عندما أعلنت شركة Deloitte في أكتوبر أنها ستعيد جزءًا من أتعاب تقرير بلغت قيمته 290 ألف دولار قدمته للحكومة الأسترالية، بعدما شابه عدد من الأخطاء، وكان قد أُعد جزئيًا باستخدام الذكاء الاصطناعي.
وتستثمر شركات الاستشارات، شأنها شأن العديد من القطاعات الأخرى، ملايين الدولارات في الذكاء الاصطناعي للحفاظ على قدرتها التنافسية وتعزيزها، غير أن المجال الذي شهد أكثر الإخفاقات إثارة للقلق هذا العام هو السياسة.
السياسة
ولا يتعلق الأمر هنا بقدرة الذكاء الاصطناعي على نشر التضليل أو تهديد الديمقراطية، بل بالطريقة اليومية والمقلقة التي بات يستخدم بها سياسيون حول العالم هذه التكنولوجيا.
فقد أصبح تعبير “لم ننتخب ChatGPT” شائعًا منذ أن صرّح رئيس وزراء السويد أولف كريسترسون بأنه يستعين بأدوات الذكاء الاصطناعي للحصول على “رأي ثانٍ” في بعض القضايا، فيما استخدم آخرون هذه الأدوات في مذكرات رسمية اتضح لاحقًا أنها غير دقيقة.
لكن الخطوة الأكثر إثارة للحيرة جاءت في سبتمبر من ألبانيا، حين قدّم رئيس الوزراء إيدي راما “وزيرة” حكومية مولّدة بالذكاء الاصطناعي تُدعى دييلا كعضو في حكومته.
ورغم أن الخطوة قد تكون رمزية، إذ يشترط الدستور الألباني أن يكون الوزراء مواطنين لا تقل أعمارهم عن 18 عامًا، فإنها تظل خطوة محبطة؛ فالتعامل مع البشر، بكل عيوبهم، صعب بما فيه الكفاية؛ أما مع الذكاء الاصطناعي، كما نتعلم بسرعة، فالأمر يكاد يكون مستحيلًا.




