Abstract:
شهد المجال العسكري تطورا ملحوظا مع ظهور أسلحة تعتمد على الذكاء الاصطناعي، مما يتيح لها ميزة اتخذ قراراتها بشكل ذاتي، حيث أن هذا التحول غير من طبيعة الحروب التي لطالما كانت تعتمد على الوجود البشريفي الميدان، وقد أدى ذلك إلى إثارة مخاوف دولية خصوصا في ضل غياب تدخل العنصر البشري للسيطرة على الأسلحة القاتلة المسيرة ذاتيا، مما جعل الدول تختلف في نظرتها لهذه الأسلحة بين تنظيم استخدامها ضمن القانون الدولي الإنساني أو حظرها كليا، هذه الاختلافات تبرز الحاجة الملحة إلى وضع اتفاقية خاصة تسعى إلى تنظيم استخدام هذه الأسلحة مع مراعاة الاعتبارات الأخلاقية والإنسانية، ورغم الخصائص الفريدة التي تتمتع بها هذه التقنيات إلا أنها تطرح تحديات أخلاقية وقانونية وتقنية لا يمكن تجاهلها، وهذه التحديات تشمل إسناد قرار القتل للآلات بجانب إشكالية تحديد المسؤولية في حالات الخطأ والانتهاكات بسبب عدم وجود تدخل بشري، كما أن احتمالية وقوع أخطاء في البرمجة وتعرض هذه الآلات لأعطال قد تؤدي إلى نتائج كارثية مثل عدم قدرتها على التمييز بين الأهداف أو الالتزام بالمعايير الإنسانية، وهو ما يشكل خطر على استمرارية الوجود البشري، وما زاد من قلق في المجتمع الدولي بشأن مدى قدرة الأسلحة القاتلة المسيرة ذاتيا في الامتثال للقانون الدولي الإنساني.