تشير التطورات الأخيرة في سباق الذكاء الاصطناعي تحولًا مقلقًا في أولويات الشركات التقنية، حيث تتراجع مناقشات السلامة لصالح المنافسة العسكرية والتجارية، في ظل تصاعد التوتر بين شركات التكنولوجيا والمؤسسات العسكرية.
السلامة أمام المصالح في سباق الذكاء الاصطناعي
فقد بات النقاش أكثر تركيزًا على استخدام التقنيات المتقدمة في المجالات العسكرية، بما في ذلك الأنظمة القتالية ذاتية التشغيل، بعد سنوات من الحديث عن ضرورة تنظيم استخدام الذكاء الاصطناعي عالميًا.
خلال السنوات الماضية، كان هناك توافق عالمي متزايد بين الشركات والحكومات والمجتمع المدني حول ضرورة وضع أطر تنظيمية صارمة للذكاء الاصطناعي.
وتوقع العديد من الخبراء إنشاء هيئات دولية لتنظيم هذه التقنيات، بما يحد من أخطر تطبيقاتها، كما تعهدت شركات التكنولوجيا بوضع معايير أمان أعلى من المنافسة التجارية، في محاولة لتجنب السيناريوهات الكارثية المرتبطة بالتكنولوجيا المتقدمة؛ لكن هذا التوافق بدأ يتلاشى تدريجيًا مع تصاعد الضغوط السياسية والاقتصادية.
ويظهر الصراع الأخير بين وزارة الدفاع الأمريكية وشركة أنثروبيك مثالًا واضحًا على هذا التحول، فقد أصرت الشركة على تضمين عقودها مع الجيش الأمريكي بنودًا تمنع استخدام نماذج الذكاء الاصطناعي الخاصة بها في تطوير أسلحة ذاتية التشغيل أو أنظمة مراقبة جماعية للمواطنين.
لكن البنتاجون سعى إلى إزالة هذه القيود، ما أدى إلى انتهاء التعاون بين الطرفين، وتصنيف الشركة كخطر على سلاسل التوريد، وهو تصنيف يمنع المؤسسات الحكومية من التعامل معها.
ويشير خبراء إلى أن الخلاف لا يقتصر على القضايا القانونية فقط، بل يعكس أيضًا صراعًا أوسع حول مستقبل الحروب الحديثة.
تقنيات الطائرات المسيّرة
ويثير التطور السريع في تقنيات الطائرات المسيّرة المسلحة والأنظمة الذكية القادرة على تحديد الأهداف البشرية يثير مخاوف كبيرة حول احتمالات نشوء جيوش من الروبوتات القتالية المستقلة.
ويرى منتقدون أن غياب اتفاقيات دولية ملزمة يفتح الباب أمام سباق تسلح عالمي يعتمد على الذكاء الاصطناعي، إذ تسعى كل قوة عسكرية إلى تطوير تقنيات مماثلة للحفاظ على تفوقها الاستراتيجي.
في الوقت نفسه، حاولت شركة أنثروبيك الدفاع عن موقفها من خلال سياسة تعرف باسم سياسة التدرج المسؤول، والتي تهدف إلى ربط تطوير نماذج الذكاء الاصطناعي بمعايير أمان صارمة قبل إطلاقها تجاريًا.
كان الهدف من هذه السياسة خلق ما وصفته الشركة بـ “سباق نحو القمة”، حيث تتنافس الشركات ليس فقط على القوة التقنية، بل أيضًا على مستوى الأمان والمسؤولية الأخلاقية.
لكن الشركة أعلنت لاحقًا تعديل هذه السياسة، معترفة بأن البيئة التنظيمية العالمية أصبحت أكثر تركيزًا على النمو الاقتصادي والتنافسية التقنية على حساب مناقشات السلامة.
وأدى هذا التحول إلى تصاعد المنافسة بين شركات الذكاء الاصطناعي، حيث دخلت الشركات الكبرى في صراع مباشر على عقود الدفاع والتطبيقات العسكرية.
كما شهدت الساحة التقنية تحركات مماثلة من شركات أخرى، فقد سارعت OpenAI إلى توقيع اتفاقيات مع وزارة الدفاع الأمريكية بعد انسحاب أنثروبيك من المفاوضات، مؤكدة أنها أدرجت ضوابط تمنع الاستخدام غير المشروع لتقنياتها، إلا أن الانتقادات ما زالت قائمة بشأن مدى فعالية هذه الضوابط، خاصة مع تطور استخدام الذكاء الاصطناعي في النزاعات العسكرية.
وعلى الرغم من المخاوف المتزايدة، تؤكد شركات التكنولوجيا أن الأبحاث حول أمان الذكاء الاصطناعي ما زالت مستمرة، وأن المنافسة بين المختبرات البحثية لا تقتصر على تطوير تقنيات أكثر قوة، بل تشمل أيضًا تطوير أنظمة أكثر أمانًا.
وتقول شركات مثل OpenAI إن أعداد الباحثين العاملين في مجالات الأمان قد زادت، رغم أن النسب الدقيقة لم يتم الكشف عنها.
ويعتقد خبراء أن مستقبل الذكاء الاصطناعي سيظل مرتبطًا بالصراع بين التقدم التكنولوجي والضوابط الأخلاقية، خاصة مع توسع استخدام هذه التقنيات في الاقتصاد والحرب والسياسة العالمية، ما يجعل مسألة تنظيمها أحد أكبر التحديات في القرن الحالي.