كيف تُصنع «الداتا» التي يعتمد عليها الذكاء الاصطناعي؟
كيف تتحول «الداتا المسمومة» إلى سلاح استراتيجي؟
- محمود الشاذلي
- 13 يناير، 2026
- تقارير
- الداتا المسمومة, الذكاء الاصطناعي, الصين وتايوان, حرب أوكرانيا
لم يعد تصنيف الجيوش الحديثة يعتمد فقط على حجم العتاد أو عدد الجنود، بل بات مرتبطًا بشكل مباشر بمدى توظيف الذكاء الاصطناعي في العمليات العسكرية، وبحجم ما تنتجه هذه الجيوش من منظومات تعتمد على ما يُعرف بـ«التحكم الذاتي» (Autonomous Systems) في مختلف ميادين القتال.
إلى جانب ذلك، يُقاس مستوى فاعلية الجيوش بقدرتها على خوض ما يُعرف بـ«القتال المشترك» (Combined Warfare)، أي التنسيق الكامل بين القوات البرية والبحرية والجوية والفضائية والسيبرانية ضمن إطار واحد. هذا النموذج القتالي يُطلق عليه اصطلاحًا «العمليات المشتركة والمتكاملة» (Integrated Joint Operations)، وهو الإطار الذي بات يهيمن على العقيدة العسكرية للقوى الكبرى.
تشير العمليات المشتركة والمتكاملة إلى منظومة قتالية تقوم على الربط الكامل بين مختلف أفرع القوات المسلحة، بهدف خلق صورة شاملة ثلاثية الأبعاد لما يُعرف بـ«حقل المعركة» (Battlespace).
وحقل المعركة هنا لا يقتصر على المواجهة المباشرة، بل يشمل البيئة العملياتية بكامل عناصرها: التضاريس، الطقس، البنية التحتية، أنظمة التسليح، أجهزة الاستشعار، المسيّرات، الحرب الإلكترونية، الأقمار الاصطناعية، وكل ما يمكنه توليد «داتا» عن العدو.
الهدف النهائي من هذا الترابط هو تقليص الزمن اللازم لاتخاذ القرار، بما يسمح للقيادة البشرية – حتى الآن – بالحفاظ على حرية المناورة واستباق ردود فعل الخصم.
الصين وتايوان: حرب القرن الحادي والعشرين المحتملة
وفقًا لتقرير وزارة الدفاع الأميركية (البنتاغون) حول جاهزية الجيش الصيني بحلول عام 2027، وهو العام الذي حدده الرئيس الصيني كموعد محتمل للتحرك العسكري ضد تايوان، فإن بكين تحتاج إلى توافر ثلاث قدرات استراتيجية أساسية:
القدرة على تحقيق نصر عسكري بتكلفة مقبولة.
ردع الولايات المتحدة أو تقييد قدرتها على التدخل في النزاع، مع التلويح بالخيار النووي إذا لزم الأمر.
منع فتح جبهات إضافية من قبل حلفاء واشنطن في المنطقة.
وبناءً على ذلك، تتعدد سيناريوهات التحرك الصيني، بدءًا من الإكراه السياسي والعسكري لإجبار تايوان على الاستسلام دون حرب شاملة، وصولًا إلى اجتياح عسكري كامل يشمل قصفًا استراتيجيًا لمراكز الثقل، وإنزالًا بحريًا ضخمًا قد يكون الأكبر منذ إنزال النورماندي في الحرب العالمية الثانية.
هل تعلمت الصين من حرب أوكرانيا؟
يبقى السؤال الجوهري: هل استخلصت بكين الدروس من الحرب الروسية على أوكرانيا؟
وماذا عن السلوك الأميركي؟ هل سيلتزم الرئيس الأميركي دونالد ترمب بمنطق «نصف الكرة الغربي» بوصفه مجال النفوذ الأميركي الأساسي، أم سيتدخل – ولو بشكل غير مباشر – عبر دعم الحلفاء، وفي مقدمتهم اليابان؟
هذه الأسئلة تكتسب أهمية متزايدة في ظل المناورات الصينية المتكررة قرب تايوان، والتي تعكس استعدادًا عمليًا يتجاوز الرسائل السياسية.
ربط كل عناصر القوة العسكرية داخل حقل المعركة يولد بطبيعته فائضًا هائلًا من البيانات (Overwhelming Data)، يفوق قدرة العنصر البشري على التحليل السريع واتخاذ القرار في الوقت المناسب.
هنا يظهر الذكاء الاصطناعي كحل تقني، قادر على تحليل كميات ضخمة من البيانات، وتحويلها إلى أنماط ومعرفة قابلة للاستخدام العملياتي. غير أن هذا الحل، بطبيعته، يولد مشكلات جديدة. وكما قال الفيلسوف كارل بوبر: «الحياة عملية مستمرة لحل المشكلات، وكل حل يخلق مشكلات جديدة».
تعتمد أنظمة الذكاء الاصطناعي على خوارزميات قادرة على معالجة مئات الملايين من الأسئلة، لكن هذه الخوارزميات لا تعمل في الفراغ. فهي تُدرّب على كميات هائلة من البيانات قد تصل إلى مستوى «البيتابايت» (Petabyte)، حيث يعادل البيتابايت الواحد نحو 500 مليار صفحة مطبوعة.
وتُجمع هذه البيانات من مصادر مفتوحة وسرية على حد سواء. وهنا يبرز السؤال الأخطر: ماذا لو كانت هذه البيانات «مسمومة» أو مضللة؟
«الداتا المسمومة»… سلاح الحرب الخفي
إذا كانت المعلومات التي يعتمد عليها الذكاء الاصطناعي خاطئة أو مُضللة، فإن إدارة مسرح العمليات بأكمله ستبنى على أساس غير صحيح.
ويكمن الخطر في أن الذكاء الاصطناعي يُستخدم لتحديد الأهداف، واختيار الوسائل العسكرية الأنسب للتعامل معها. فإذا كانت المعلومة خاطئة، فإن القرار العسكري الناتج سيكون كارثيًا.
الأخطر من ذلك أن الاعتماد الكامل على الذكاء الاصطناعي قد يحول الحرب إلى عملية حسابية خالصة، تُسرّع وتيرة التصعيد. فماذا لو أدى هذا التصعيد، المبني على «داتا مسمومة»، إلى استخدام السلاح النووي؟
يقول كارل فون كلوزفيتز إن الشك وعدم اليقين – أو ما يُعرف بـ«ضباب الحرب» – عنصر دائم في ساحات القتال. وقد روّج البعض لفكرة أن الذكاء الاصطناعي قادر على إزالة هذا الضباب عبر تدفق البيانات.
لكن إذا كانت البيانات نفسها مسمومة، فإن الضباب لا يختفي، بل يتخذ شكلًا أكثر تعقيدًا وخطورة.
من أخطر التحديات ما يُعرف بـ«الفجوة المعرفية» (Cognitive Gap) بين القائد العسكري والذكاء الاصطناعي. فقد تقترح الأنظمة الذكية قرارات أو سيناريوهات لا يستطيع القائد فهم منطقها الكامل، بسبب الفارق الهائل في حجم البيانات التي يعالجها كل طرف.
وهنا يبرز سؤال مصيري: كيف يتخذ القائد قرارًا بناءً على توصية لا يفهمها؟
وماذا لو كانت هذه التوصية مبنية على بيانات مضللة؟ أليس هذا شكلًا جديدًا من الخداع، يتوافق تمامًا مع مقولة صن تزو الشهيرة: «الحرب تقوم على الخداع»؟
البنية التحتية الرقمية… نقطة الضعف الكبرى
يعتمد الذكاء الاصطناعي على بنى تحتية مادية لنقل البيانات، سواء عبر الكوابل البحرية أو الأقمار الاصطناعية. وأكثر من 90% من البيانات العالمية تنتقل اليوم عبر الكوابل البحرية.
فهل تمتلك الجيوش بدائل حقيقية في حال استهداف هذه الكوابل؟
وهل يمكن تسميم البيانات عبر اختراقها؟
ولماذا بات قطع الكوابل البحرية جزءًا من التخطيط العسكري في النزاعات الكبرى؟
في حروب القرن الحادي والعشرين، لم تعد الجبهة العسكرية هي نقطة البداية. فالحرب السيبرانية قد تبدأ بضرب الداخل، وشل البنى التحتية الرقمية، قبل استهداف القوات المسلحة.
ومع تحول معظم الأسلحة الحديثة إلى أنظمة تعمل بالخوارزميات، وانتقال جزء كبير من صناعتها إلى القطاع الخاص، باتت إدارة الأزمات السيبرانية مسألة حيوية لا تقل أهمية عن إدارة المعركة التقليدية.
في الحرب العالمية الثانية، انتقلت الحرب من الجبهات إلى الداخل. أما اليوم، فقد تبدأ من الداخل لتصل لاحقًا إلى الجبهات.
وفي ظل هذا التحول، يمكن القول إن حروب المستقبل قد لا تعرف جبهات واضحة، بل مسارح متداخلة، يكون فيها الذكاء الاصطناعي – و«الداتا المسمومة» – أحد أخطر الأسلحة غير المرئية.