ترامب يعلن وقف استخدام تكنولوجيا أنثروبيك فورًا
لماذا تفجّرت الأزمة بين البيت الأبيض والبنتاغون؟
- محمود الشاذلي
- 28 فبراير، 2026
- تقارير
- OpenAI, البيت الأبيض والبنتاغون, الرئيس الأمريكي, تابع معنا الأخبار العربية والدولية والعالم الإسلامي | أخبار الرائد, ترامب, تكنولوجيا أنثروبيك, نموذج الذكاء الاصطناعي Claude
الرائد: أعلن الرئيس الأمريكي دونالد ترامب التوقف الفوري عن استخدام تكنولوجيا شركة Anthropic في جميع الوكالات الفيدرالية، مع منح مهلة انتقالية مدتها 6 أشهر لبعض الجهات، من بينها وزارة الدفاع الأمريكية، للتخلص التدريجي من منتجات الشركة.
القرار فجّر مواجهة غير مسبوقة بين الإدارة الأمريكية والشركة المطورة لنموذج الذكاء الاصطناعي “Claude”، وفتح بابًا واسعًا من التساؤلات حول حدود استخدام الذكاء الاصطناعي في الأمن القومي، ومن يملك القرار النهائي: الدولة أم مطور التكنولوجيا؟
تُعد أنثروبيك شركة متخصصة في أبحاث وتطوير الذكاء الاصطناعي، تأسست عام 2021 على يد مجموعة من الباحثين السابقين في OpenAI، يتقدمهم الرئيس التنفيذي والمؤسس المشارك داريو أمودي.
تركّز الشركة على تطوير نماذج لغوية متقدمة، أبرزها عائلة “Claude”، مع تبنّي نهج يُعرف بـ”الذكاء الاصطناعي الآمن”، الذي يقوم على وضع قيود أخلاقية صارمة لاستخدام التكنولوجيا، خصوصًا في المجالات العسكرية والأمنية.
وتتلقى الشركة استثمارات ضخمة من مؤسسات تقنية كبرى، ما جعلها لاعبًا مؤثرًا في سباق الذكاء الاصطناعي داخل الولايات المتحدة.
وبحسب ما أفادت به صحيفة The Wall Street Journal، فإن الجيش الأمريكي استخدم برنامج “Claude” في عملية احتجاز رئيس فنزويلا نيكولاس مادورو، وهو ما أضفى بُعدًا أمنيًا حساسًا على الجدل الدائر.
جوهر الخلاف بين أنثروبيك والبنتاغون
يتمحور الخلاف بين الشركة ووزارة الدفاع الأمريكية، بقيادة الوزير بيت هيغسيث، حول القيود التي تفرضها أنثروبيك على استخدام تقنياتها.
أبرز نقاط الخلاف:
حظر استخدام النموذج في المراقبة الجماعية الداخلية للأمريكيين.
رفض تشغيل أسلحة مستقلة بالكامل تُخرج البشر من “حلقة القرار”.
منع تسليم قرار استخدام القوة القاتلة إلى خوارزمية تعمل دون موافقة إنسان.
في المقابل، ترى وزارة الدفاع أن من حق الجيش، بعد شراء الأداة، أن يستخدمها “لجميع الأغراض القانونية”، وأن يحدد آليات توظيفها وفقًا لمعاييره العسكرية.
لكن داريو أمودي رد بأن أنظمة الذكاء الاصطناعي الحالية “ليست موثوقة بما يكفي” لإدارة أسلحة ذاتية التشغيل بالكامل، مؤكدًا أن قدرة النماذج على تجميع وتحليل كميات هائلة من البيانات قد تجعل المراقبة الشاملة خطرًا على القيم الديمقراطية.
تهديدات بعقوبات وفسخ عقود بمئات الملايين
الخلاف تصاعد إلى مستوى غير مسبوق، حيث طُرح خيار إدراج الشركة على قائمة “مخاطر سلسلة التوريد”، مع احتمال فسخ عقد قد تصل قيمته إلى 200 مليون دولار، ومنعها من الحصول على أعمال حكومية مستقبلًا.
وبناءً على ذلك، أصدر ترامب بيانًا رسميًا يقضي بـ”التوقف الفوري” عن استخدام تكنولوجيا أنثروبيك في جميع الوكالات الفيدرالية، مؤكدًا أن القرار جاء على خلفية النزاع بشأن شروط استخدام تقنيات الذكاء الاصطناعي في العمليات العسكرية.
وقال ترامب إن الولايات المتحدة “لن تسمح أبدًا لشركة يسارية راديكالية أن تملي على جيشنا العظيم كيف يخوض الحروب وينتصر فيها”، معتبرًا أن إدارة العمليات العسكرية تعود إلى “القائد الأعلى” والقيادات التي يعيّنها.
واتهم الشركة بمحاولة الضغط على وزارة الدفاع وإجبارها على الانصياع لشروط الخدمة الخاصة بها بدلًا من الدستور، معتبرًا أن موقفها “يضع الأرواح الأمريكية وأمن البلاد القومي في مأزق”.
البيان أشار كذلك إلى أن الإدارة ستستخدم “كامل صلاحيات الرئاسة” لفرض الامتثال خلال المهلة الانتقالية، مع احتمال ترتّب “تبعات مدنية وجنائية كبرى” في حال عدم التعاون.
ما خطورة تكنولوجيا أنثروبيك ونموذج Claude؟
تطوّر أنثروبيك نموذج “Claude”، وهو نظام لغوي متقدم يُستخدم في:
-
التحليل الاستخباراتي.
-
استخلاص الأنماط من بيانات ضخمة.
-
دعم التخطيط واللوجستيات.
-
البرمجة والأمن السيبراني.
-
العمل داخل بيئات مؤسسية مثل جداول البيانات والعروض التقديمية كمساعد ذكي متكامل.
لكن الخطورة – بحسب الخبراء – لا تكمن في النموذج ذاته، بل في طريقة الاستخدام.
تمتلك النماذج قدرة على دمج بيانات مشتتة مثل الحركة، الاتصالات، والسلوك الرقمي، لتكوين صورة شاملة عن الأفراد بسرعة وعلى نطاق واسع، وهو ما قد يعيد تشكيل العلاقة بين الدولة والمواطن ويضعف الخصوصية.
في حال ربط النموذج بأنظمة سلاح ذاتي بالكامل، قد تنتقل قرارات الاستهداف إلى خوارزميات تتعلم من بيانات قد تكون منحازة أو ناقصة، ما يزيد احتمالات الخطأ القاتل.
في سيناريوهات حساسة مثل اعتراض صواريخ باليستية، تُقاس القرارات بالثواني، ما يزيد إغراء تقليص الدور البشري وتسليم القرار للآلة، وهو ما يثير إشكاليات أخلاقية وقانونية عميقة.
لماذا يرفض ترامب شروط أنثروبيك؟
ترى إدارة ترامب أن اشتراطات أنثروبيك تقيد حرية الجيش في استخدام أداة تعتبرها حيوية للأمن القومي.
كما أن خطاب وزير الدفاع ضد ما يسميه “الذكاء الاصطناعي المستيقظ” يعكس توترًا أيديولوجيًا مع شركات تضع قيودًا أخلاقية فوق متطلبات الدولة.
في المقابل، تؤكد الشركة أن إزالة الضوابط سيحوّلها إلى مزود تكنولوجيا قد تُستخدم في ممارسات تمس الحريات أو تعرّض المدنيين للخطر.
أزمة تتجاوز عقدًا تجاريًا
أزمة أنثروبيك ليست مجرد نزاع تعاقدي، بل لحظة مفصلية في علاقة وادي السيليكون بالمؤسسة العسكرية الأمريكية.
فعندما تُؤتمت قرارات استخدام القوة، يتراجع عنصر المساءلة البشرية، وتتسارع ديناميات الردع والخطأ، وأي خطأ قد يُترجم إلى نتائج مميتة.
السؤال الأبرز الذي يفرض نفسه الآن:
هل يملك مطوّر التكنولوجيا الحق في وضع “خطوط حمراء” على استخدامات الدولة؟ أم أن السيادة الأمنية تتقدم على الاعتبارات الأخلاقية للشركات؟
الإجابة عن هذا السؤال لن تحدد فقط مصير عقد بقيمة مئات الملايين، بل سترسم ملامح توظيف الذكاء الاصطناعي في الحروب المقبلة، وحدود الإنسان أمام الآلة.