مع تطور أساليب الحرب الحديثة، أصبح دمج الذكاء الاصطناعي في نظم التخطيط والاستهداف أمرًا متزايد الأهمية للقوات العسكرية. خلال النزاع الإيراني الاخير، استخدمت وزارة الدفاع الأمريكية أدوات ذكاء اصطناعي متقدمة لمساعدة صانعي القرار على معالجة كميات هائلة من بيانات الميدان ودعم تحديد الأهداف المحتملة. وتجدر الإشارة إلى أن هذه النظم لم تكن أسلحة مستقلة، بل كانت أدوات تحليلية تساعد المشغلين البشر على إدارة تدفق المعلومات غير المسبوق.
في بداية عام 2026، تم دمج Project Maven — وهو برنامج قائم على التعلم الآلي يهدف إلى دمج البيانات من الصور والأقمار الصناعية والرادار والاستخبارات الميدانية — مع نسخ معدلة من Claude AI، نموذج لغوي وتحليلي كبير تم تكييفه للمهام العسكرية والاستخباراتية. مكّن هذا الدمج النظام من معالجة تدفقات البيانات بسرعة، وإنشاء قوائم بالهدف المحتمل مع الإحداثيات والبيانات الوصفية والمعلومات السياقية.
خلال المرحلة الأولى من العمليات، قام النظام المدعوم بالذكاء الاصطناعي بتجميع وتحليل الصور والاستخبارات الإشارية لإنتاج قوائم أولويات للأهداف المحتملة بسرعة تفوق الأساليب التقليدية اليدوية. وتشير بعض التقارير إلى أن Claude ساعد في إنتاج قوائم بنحو 1000 موقع مرشح في اليوم الأول، متضمنة إحداثيات دقيقة واقتراحات لتأثيرات الأسلحة، كإشارات يمكن مراجعتها من قبل المحللين البشريين.
من المهم التأكيد على أن الذكاء الاصطناعي لم يصدِّق على أي هجمات أو يطلق أسلحة بنفسه. تظل السلطة النهائية للضربات العسكرية بيد القادة البشريين وفقًا للسياسات العسكرية الأمريكية. كان على المحللين مراجعة مخرجات الذكاء الاصطناعي، وتعديلها للتأكد من الالتزام بالقوانين وتقليل المخاطر على المدنيين، قبل أن تصدر التوصيات النهائية للقيادة.
مع ذلك، أثارت هذه الاستخدامات مخاوف أخلاقية وقانونية. فقد جادل النقاد بأن السرعة الكبيرة في تحديد الأهداف قد تقلل الوقت المتاح للتحقق الدقيق، ما يزيد من احتمالية وقوع أخطاء. وبرزت أحداث مثل ضربة مدرسة ميناب كنقاط جدل حول الدور الذي لعبه الذكاء الاصطناعي في عمليات التخطيط واستهداف المواقع.


