تتواصل تداعيات حادث إطلاق النار الجماعي الذي شهدته مدينة تومبلر ريدج الكندية، بعد اتهام شاب يبلغ من العمر 18 عامًا بقتل ثمانية أشخاص في واقعة هزّت الرأي العام.
وكشفت تقارير صحفية أن المتهم كان قد استخدم روبوت الدردشة ChatGPT، التابع لشركة OpenAI، قبل وقوع الجريمة، في محادثات تضمنت أوصافًا لمشاهد عنف باستخدام أسلحة نارية، ما أثار مخاوف داخل الشركة بشأن طبيعة هذا النشاط الرقمي.
ووفقًا للتفاصيل المتداولة، أجرت جيسي فان روتسيلار سلسلة من المحادثات عبر المنصة تضمنت محتوى عنيفًا، الأمر الذي رصدته أنظمة المراقبة الداخلية المصممة لاكتشاف إساءة استخدام نماذج اللغة الكبيرة (LLMs). وبناءً على ذلك، وُضعت علامة تحذيرية على الحساب، قبل أن يتم حظره في يونيو 2025 بعد مراجعة النشاط.
نقاش داخل الشركة
أفادت صحيفة The Wall Street Journal بأن نقاشًا دار داخل شركة OpenAI حول ما إذا كان ينبغي إبلاغ جهات إنفاذ القانون الكندية بطبيعة تلك المحادثات. غير أن الشركة قررت في نهاية المطاف عدم التواصل مع السلطات في ذلك الوقت، معتبرة أن النشاط المسجل لم يستوفِ المعايير المعتمدة لديها للإبلاغ الرسمي.
أوضح متحدث باسم الشركة لاحقًا أن القرار استند إلى سياسات داخلية تنظم آلية التعامل مع المحتوى المثير للقلق، مشيرًا في الوقت ذاته إلى أن OpenAI بادرت بالتواصل مع الجهات الكندية المختصة عقب وقوع الحادث.
وجاء في بيان رسمي صادر عن الشركة: “قلوبنا مع جميع المتضررين من مأساة تومبلر ريدج. لقد تواصلنا مع الشرطة الملكية الكندية وقدمنا معلومات تتعلق بالفرد واستخدامه لـ ChatGPT، وسنواصل دعم التحقيق الجاري”.
تعاون مع الشرطة الكندية
وأكدت الشركة أنها زودت الشرطة الملكية الكندية بالمعلومات المتاحة لديها بشأن استخدام المتهمة للمنصة، في إطار التعاون مع التحقيقات الرسمية. ويأتي ذلك وسط تصاعد الضغوط على شركات الذكاء الاصطناعي لتوضيح حدود مسؤوليتها وآلياتها في التعامل مع المحتوى العنيف أو المقلق الذي ينشره المستخدمون.
ولم تقتصر المؤشرات التحذيرية على محادثات ChatGPT وحدها. فقد أشارت التقارير إلى أن فان روتسيلار أنشأت لعبة عبر منصة روبلوكس، وهي منصة تحظى بشعبية واسعة بين الأطفال والمراهقين، وتضمنت محاكاة لحادث إطلاق نار داخل مركز تجاري. كما نشرت محتوى متعلقًا بالأسلحة عبر منصة Reddit، ما يعكس اهتمامًا متكررًا بموضوعات العنف قبل وقوع الجريمة.
إضافة إلى ذلك، كانت الشرطة المحلية قد تعاملت سابقًا مع المتهمة في واقعة منفصلة، بعد أن أضرمت النار في منزل عائلتها أثناء وجودها تحت تأثير مواد مخدرة غير محددة. أعاد هذا السجل السابق طرح تساؤلات حول ما إذا كانت هناك مؤشرات مبكرة كان يمكن أن تُترجم إلى تدخل وقائي.
في سياق أوسع، أعادت الحادثة الجدل حول مسؤولية روبوتات الدردشة المعتمدة على نماذج اللغة الكبيرة، سواء التابعة لـ OpenAI أو غيرها من الشركات المنافسة، إذ يرى منتقدون أن هذه الأدوات قد تسهم، في بعض الحالات، في تفاقم اضطرابات نفسية لدى مستخدمين يعانون هشاشة نفسية، خصوصًا إذا فقدوا القدرة على التمييز بين الواقع والمحتوى الرقمي.
وقد رُفعت بالفعل دعاوى قضائية في قضايا منفصلة، استندت إلى نصوص محادثات يُزعم أنها شجعت أفرادًا على إيذاء أنفسهم أو زودتهم بإرشادات تتعلق بالانتحار، ما أعاد تسليط الضوء على التوازن الدقيق بين حماية الخصوصية ومنع الضرر المحتمل.