أثار النزاع بين Anthropic والبنتاجون “وزارة الدفاع الأمريكية”، موجة من التساؤلات داخل قطاع التكنولوجيا حول مستقبل تعاون الشركات الناشئة مع المؤسسات العسكرية، في ظل تصاعد الجدل بشأن استخدام تقنيات الذكاء الاصطناعي في العمليات العسكرية.
وجاءت هذه التطورات بعد تعثر المفاوضات بين البنتاغون وشركة أنثروبيك بشأن استخدام نموذج الذكاء الاصطناعي الخاص بها “كلاود”، قبل أن تصنف إدارة الرئيس الأمريكي دونالد ترامب الشركة باعتبارها “مخاطرة على سلسلة التوريد”، وردت الشركة بالإعلان عن نيتها الطعن في هذا التصنيف أمام القضاء.
في المقابل، سارعت شركة OpenAI إلى الإعلان عن اتفاق جديد مع وزارة الدفاع الأمريكية، وهو ما أثار ردود فعل واسعة داخل مجتمع المستخدمين.
وتشير بيانات التطبيقات إلى ارتفاع ملحوظ في عمليات حذف تطبيق تشات جي بي تي، بينما صعد تطبيق كلاود التابع لشركة أنثروبيك إلى صدارة قوائم التنزيل في متجر التطبيقات.
كما كشفت تقارير عن استقالة أحد مسؤولي OpenAI التنفيذيين اعتراضًا على الإعلان عن الصفقة، إذ اعتبر أن القرار اتُخذ بسرعة ودون وضع الضوابط اللازمة لضمان استخدام التقنية بشكل آمن.
Anthropic والبنتاجون.. نقاش حول العلاقة بالحكومة
تناول محللون في بودكاست Equity التابع لموقع TechCrunch تداعيات هذه الأزمة على الشركات الناشئة التي تسعى للعمل مع الحكومة الفيدرالية الأمريكية، خصوصًا وزارة الدفاع.
وتساءلت الصحفية المتخصصة في شؤون النقل والتكنولوجيا كريستن كوروسيك عما إذا كانت هذه التطورات قد تدفع شركات ناشئة إلى إعادة التفكير في ملاحقة العقود الحكومية، خاصة في ظل التعقيدات السياسية والتنظيمية المرتبطة بوزارة الدفاع.
لكن الصحفي التقني شون أوكين أشار إلى أن الوضع الحالي قد يكون استثنائيًا إلى حد كبير، موضحًا أن العديد من الشركات الكبرى وحتى الشركات المدرجة ضمن قائمة “فورتشن 500” تعمل مع الحكومة الأمريكية منذ سنوات طويلة دون أن تحظى بنفس القدر من الاهتمام الإعلامي.
وأضاف أن كثيرًا من تلك المشاريع يجري بعيدًا عن الأضواء، ولا يثير نقاشًا عامًا واسعًا كما يحدث مع شركات الذكاء الاصطناعي التي تمتلك منتجات يستخدمها ملايين الأشخاص حول العالم.
لماذا تحظى شركات الذكاء الاصطناعي بكل هذا الاهتمام؟
يرى مراقبون أن طبيعة منتجات الشركات مثل OpenAI وأنثروبيك تضعها في مركز الاهتمام العام، فهذه الشركات تقدم أدوات يستخدمها الجمهور بشكل مباشر، وهو ما يجعل أي تعاون بينها وبين الجهات العسكرية قضية ذات حساسية كبيرة.
وأوضح أوكين أن النقاش لا يتعلق فقط بانتشار هذه التقنيات، بل بطبيعة استخدامها المحتملة في العمليات العسكرية. ويتركز الجدل تحديدًا حول ما إذا كانت تقنيات الذكاء الاصطناعي يمكن أن تُستخدم في مهام مرتبطة بعمليات قتالية أو اتخاذ قرارات تؤدي إلى إزهاق الأرواح.
وتختلف هذه الحالة عن شركات صناعية تقليدية مثل شركات تصنيع المركبات العسكرية، حيث تبدو العلاقة بين المنتج والاستخدام العسكري أقل مباشرة في نظر الجمهور.
جدل أخلاقي حول دور الذكاء الاصطناعي في الحروب
يمثل هذا النزاع جزءًا من نقاش أوسع يدور داخل قطاع التكنولوجيا حول دور الذكاء الاصطناعي في المؤسسات الحكومية، ولاسيما في المجال العسكري.
ويرى بعض المحللين أن الخلاف بين أنثروبيك وOpenAI لا يتعلق برفض التعاون مع الحكومة، بل بالخلاف حول الشروط التي تنظم استخدام التقنيات.
وتؤكد الشركتان في تصريحات علنية أنهما تدعمان فرض قيود على كيفية استخدام الذكاء الاصطناعي، غير أن الخلاف ظهر عندما حاولت وزارة الدفاع تعديل بعض بنود الاتفاق القائم مع أنثروبيك، وهو ما رفضته الشركة.
كما أشار بعض المراقبين إلى وجود عوامل شخصية في هذا النزاع، إذ أفادت تقارير بوجود خلافات بين المدير التنفيذي لشركة أنثروبيك ومسؤول تقني بارز في وزارة الدفاع الأمريكية.
وعلى الرغم من الضجة الإعلامية، لا يتوقع بعض الخبراء أن تتراجع الشركات الناشئة بشكل واسع عن العمل مع وزارة الدفاع الأمريكية؛ لكنهم يرون أن ما حدث قد يدفع الشركات إلى التعامل بحذر أكبر مع العقود الحكومية، خاصة إذا كانت الجهات الحكومية قادرة على تعديل شروط الاتفاقات بعد توقيعها.
وتشير كوروسيك إلى أن هذه النقطة تحديدًا قد تكون الأكثر إثارة للقلق بالنسبة للشركات الناشئة، لأن العقود الحكومية عادة ما تستغرق فترات طويلة من التفاوض قبل إقرارها.
وأضافت أن محاولة تعديل شروط عقد قائم قد تعكس تغيرًا في آليات اتخاذ القرار داخل المؤسسات الحكومية، وهو ما قد يخلق بيئة أقل استقرارًا للشركات التي تعتمد على تلك العقود.