فيه لَبس كبير اليومين دول بخصوص قصة OpenAI و Anthropic، وحابب أوضح الصورة بهدوء بعيدًا عن الرومانسية أو التخويف. أولًا: نعم، Sam Altman أعلن عن اتفاق مع وزارة الدفاع الأمريكية لتشغيل نماذج OpenAI داخل شبكة سرّية تابعة لهم. وبحسب التصريحات الرسمية والتغطيات الصحفية، الاتفاق بيحط قيود واضحة، منها: حظر المراقبة الجماعية داخل أمريكا. منع استخدام النماذج كأسلحة ذاتية القرار بالكامل في القتل. الاتفاق بيتكلم عن تشغيل النماذج لتحليل بيانات، استخبارات، وأمن سيبراني. مش فيه أي نص معلن بيقول إن “شات جي بي تي هيتدرّب على شاتات المشتركين لتطوير أسلحة”. القفزة دي ببساطة مفيش عليها دليل منشور حتى الآن. ثانيًا: الصورة المنتشرة إن Anthropic (صاحبة Claude) “رفضت تشتغل مع أمريكا” ووقفت ضد الحرب… دي نص حقيقة. Anthropic شركة أمريكية، ووزارة الدفاع سبق ووقعت معاها اتفاقية كبيرة لتطوير قدرات ذكاء اصطناعي للأمن القومي، وبناء نسخ حكومية من Claude مخصّصة للعمل على بيانات تابعة للبنتاجون. يعني Claude بالفعل كان داخل منظومة العمل الدفاعي الأمريكي. الخلاف الأخير – بحسب ما نُشر – كان على مدى الاستخدام وصياغة قانونية تسمح باستخدام أوسع، وليس على مبدأ التعاون من الأساس. بعض التقارير الصحفية أشارت أيضًا إلى استخدام أدوات ذكاء اصطناعي – من ضمنها نماذج متقدمة – في عمليات تحليل استخباراتي وسيناريوهات عسكرية. لكن حتى الآن، التفاصيل الدقيقة لكل استخدام بتظل ضمن نطاقات سرّية أو غير مؤكدة بالكامل للرأي العام. الخلاصة: لو حد قرر يقاطع شركة لأسباب أخلاقية، ده حقه الكامل. لكن القرار لازم يبقى مبني على صورة كاملة، مش على سردية بتقدّم شركة كأنها “ملاك” والتانية “شيطان”. OpenAI و Anthropic شركتان أمريكيتان، والاتنين لديهم تعاملات بدرجات وشروط مختلفة مع مؤسسات حكومية وأمنية. الفروق الحقيقية غالبًا بتكون في القيود، الصياغات القانونية، وحدود الاستخدام — مش في فكرة “مع الحرب أو ضدها” بالشكل المبسّط اللي بيتقال على السوشيال. في ملفات بالحجم ده، التفاصيل أهم من الشعارات. اقرأ التقارير الأصلية، راجع التصريحات الرسمية، وبعدها كوّن رأيك بهدوء. المصادر في أول تعليق: تقارير من CNN، The Guardian، Bloomberg، The Hill، NDTV، بالإضافة لبيانات رسمية صادرة عن OpenAI و Anthropic.