ترك برس

تناول تقرير لموقع قناة "TRT عربي" التركية الرسمية التطورات المتعلقة بـ"الروبوتات القاتلة"، وهو مصطلح يُطلق على الأسلحة ذاتية التشغيل بالكامل، التي تُعرِّفها وزارة الدفاع الأمريكية بأنظمة الذكاء الصناعي التي يمكنها اختيار الأهداف وإطلاق النار عليها من تلقاء نفسها، دون أي تدخل بشري.

ووفقا للتقرير، تعمل بعض الشركات على تصنيع أسلحة تؤدي مهمات قتالية وتتخذ قرارات ذاتية دون أن تعود إلى بشري للموافقة عليه أو رفضه كما العادة. وبينما يشير بعض التقارير إلى أن هذا النوع من الأسلحة حديث ولم ينتشر بعد، يشير تقرير صادر عن معهد استوكهولم الدولي لأبحاث السلام إلى أن طائرات "هاروب" التي استخدمتها إسرائيل في هجومها على سوريا في 2017، كانت ذاتية التشغيل بالكامل وحرة في اتخاذ قراراتها، إذ أمكنها اكتشاف الأهداف المحتملة ومهاجمتها دون تدخل بشري.

وذكرت صحيفة نيويورك تايمز أن شركات التكنولوجيا العالمية تسعى حالياً لتهميش الحكم البشري على الاستهداف وإطلاق النار بشكل أوسع، مما يتجه بالعالم نحو حقبة جديدة محتملة من الروبوتات القاتلة ويهدد بمخاطر كبيرة، موضحةً أن الإصدارات الأكثر تقدماً من الطائرات بلا طيار وغيرها من الآلات التي تعمل باستقلالية تُستخدم بها كميات كبيرة من البيانات لتحديد الأنماط واتخاذ القرارات بنفسها. بحسب  "TRT عربي".

ما "الروبوتات القاتلة"؟

يُطلق هذا المصطلح على الأسلحة ذاتية التشغيل بالكامل، التي تُعرِّفها وزارة الدفاع الأمريكية بأنظمة الذكاء الصناعي التي يمكنها اختيار الأهداف وإطلاق النار عليها من تلقاء نفسها، دون أي تدخل بشري، إذ تتمكن تلك الأسلحة من تقييم السياق الظرفي في ساحة المعركة واتخاذ القرار بنفسها بشأن الهجوم المطلوب وفق البيانات المعالَجة.

وتفتقر تلك الأنظمة إلى كل سمات الذكاء البشري الذي يجعل الإنسان يتصرف وفقاً للقواعد والأعراف والقوانين، مما يشكل تحدياً لحماية المدنيين والامتثال لحقوق الإنسان الدولية والقانون الإنساني.

وتختلف الأسلحة ذاتية التشغيل بالكامل، عن أنظمة الأسلحة التي يُتحكم فيها عن بُعد مثل الطائرات من دون طيار، إذ يُوجه الأخيرة في النهاية إنسان، في حين أن الأسلحة ذاتية التشغيل بالكامل لن يكون لها توجيه بشري بعد برمجتها. ويثير هذا الأمر القلق حول المخاطر بشأن التداعيات الأخلاقية والقانونية للذكاء الصناعي في ساحة المعركة، إذ تدعو منظمات حقوق الإنسان ومسؤولو الأمم المتحدة للحد من استخدام الأسلحة ذاتية التشغيل، خوفاً من أنها قد تؤدي إلى سباق تسلح عالمي جديد قد يخرج عن نطاق السيطرة.

مَن يملك أنظمة الأسلحة المستقلة القاتلة؟

يدعم عدد من الدول أبحاث تطوير الأسلحة ذاتية التشغيل بالكامل، وحسب شبكة "ذا نيو هيومانتريان"، من الصعب الإجابة عن هذا السؤال، لأن الدول تلتزم قدراً كبيراً من السرية بشأن تطوير تكنولوجيا الأسلحة المتقدمة، ولكن تعتقد الشبكة أن الولايات المتحدة وروسيا وبريطانيا وإسرائيل تسعى لتطوير أنظمة الأسلحة المستقلة.

وذكرت الشبكة الإعلامية أن الولايات المتحدة تعمل على تطوير الكسارة أو "كراشير (Crusher)"، وهي مركبة قتالية برية من دون سائق، كما اختبرت بريطانيا طائرة مقاتلة من دون طيار تسمى "تارانيس (Taranis)". وفي الوقت نفسه، نشرت كوريا الجنوبية "حراساً (sentries)" مستقلين في المنطقة المنزوعة السلاح، وجهَّزتهم بالرشاشات التي لديها القدرة على التصويب على أهداف بشرية وإطلاق النار عليها، "ولكن لم تستخدمهم لفعل ذلك قط".

بدورها تشير مجلة إيكونوميست إلى أن شركة الصناعات الجوية الإسرائيلية (IAI) تبيع طائرات هاروب الانتحارية منذ أكثر من عقد للهند وألمانيا، ولا يتعين على هذه الدول استخدامها في وضع التشغيل الذاتي الكامل إذ يمكن توجيهها من بُعد واستخدامها ضد أي هدف تلتقطه كاميراتها، ويرى المشغلون أنه مناسب للهجوم.

لكن تعتقد المجلة أن طائرات هاروب التي استخدمتها إسرائيل ضد أنظمة الدفاع الجوي في سوريا في عام 2017، ربما كانت ذاتية التشغيل بالكامل وحرة في اتخاذ قراراتها ، إذ أن "Harop" واحداً من 49 نظاماً جرى نشره يمكنه اكتشاف الأهداف المحتملة ومهاجمتها من دون تدخل بشري.

من جهتها كشفت نيويورك تايمز في تحقيق لها أن عديداً من الشركات الأوكرانية تعمل على تطوير أسلحة تكنولوجية، تجعل الحكم البشري حول الاستهداف وإطلاق النار أمراً ثانوياً، إذ بات عدد المصانع في أوكرانيا يصنع آلات من جميع الأحجام للتحكم فيها عن بعد، وذكرت أن عديداً من هذه الأسلحة هي مقدمات للآلات التي ستعمل في نهاية المطاف من تلقاء نفسها.

وأوضحت الصحيفة أن بعض الشركات الأوكرانية، مثل "فيري"، تستخدم الخوارزميات الأساسية، التي تحلل الصور وتفسرها وتساعد الآلة على اتخاذ القرارات، بالإضافة إلى شركات أخرى أكثر تطوراً، تستخدم التعلم العميق لبناء برامج يمكنها تحديد الأهداف ومهاجمتها.

ووفقاً للصحيفة، بنت "Saker ساكر"، إحدي الشركات الأوكرانية المصنِّعة للطائرات من دون طيار، نظام استهداف مستقلاً باستخدام الذكاء الصناعي، وخلال فصل الشتاء بدأت الشركة بإرسال تقنيتها إلى الخطوط الأمامية واختبرت أنظمة مختلفة، وبعد ارتفاع الطلب ذهبت الشركة إلى أبعد من ذلك، إذ نجحت في الأسابيع الأخيرة في استخدام طائرة استطلاع من دون طيار حددت الأهداف باستخدام الذكاء الصناعي، بالإضافة لعدد من الأسلحة الأخرى على الخطوط الأمامية لتتبع الأهداف وإطلاق النار عليها تلقائياً.

وفي الوقت الحالي، يدَّعي صانعو الأسلحة أنهم لا يسمحون للمدفع الرشاش بإطلاق النار دون ضغط الإنسان على الزر، لكنهم قالوا إنه "سيكون من السهل صنع واحد قادر على ذلك".

الذكاء الصناعي "تجاوز الخط الأحمر"

ويثير الذكاء الصناعي في الحروب نقاشات قانونية وأخلاقية واسعة حول مدى ملاءمة استخدامه في قرارات القتال، خصوصاً تلك التي قد تؤدي إلى فقدان الأرواح البشرية، وتطرح تساؤلات حول مدى إنسانية هذه القرارات.

وفي هذا الصدد قالت الباحثة في قسم الأسلحة بمنظمة هيومن رايتس ووتش وأستاذة القانون الدولي وحقوق الإنسان الدولية بكلية الحقوق في جامعة هارفارد، بوني دوكيرتي، في حوار لها نشرته الصحيفة الرسمية للجامعة، إن المخاوف الأخلاقية خطيرة للغاية، إذ إن تفويض قرارات الحياة والموت للآلات، يتجاوز الخط الأحمر، وسيُفقد العنف طابعه الإنساني ويختزل البشر إلى مجرد قيم عددية.

وأعربت دوكيرتي عن خوفها من التحيز الخوارزمي، إذ يمكن أن تميّز الآلة ضد الأشخاص بناءً على العرق أو الجنس أو الإعاقة وما إلى ذلك، "لأن الآلات قد تكون مبرمجة عمداً للبحث عن معايير معينة أو قد تصبح متحيزة عن غير قصد".

وعن المخاوف القانونية، أشارت الباحثة إلى عدم قدرة الآلات على التمييز بين الجنود والمدنيين، مردفةً: "حتى لو تمكنت التكنولوجيا من التغلب على هذه المشكلة، فإنها تفتقر إلى الحكم البشري، المهم لاختبار التناسب، إذ يقارن ما إذا كان الضرر المدني أكبر من الفائدة العسكرية ويحاول اتخاذ قراراً أخلاقياً وقانونياً، وهذا لا يمكن برمجته في آلة لأنه يوجد عدد لا نهائي من المواقف والاحتمالات التي تحدث في ساحة المعركة، ولا يمكن برمجة آلة على التعامل معها كلها".

وتطرقت أستاذة القانون في هارفارد إلى قضية المساءلة، موضحةً أن المختصين بالقانون قلقون جداً بشأن استخدام أنظمة الأسلحة الذاتية "لأنها تقع في فجوة، فمن الواضح أنه لا يمكن محاسبة نظام الأسلحة نفسه، كما سيكون من الصعب قانونياً ومن غير العدل تحميل المسؤول عن تشغيل النظام المسؤولية الكاملة عن تصرفات نظام يعمل بشكل مستقل". وأوضحت أن هذا من شأنه أن يقوض القانون الجنائي الدولي ويخلق فجوة في الإطار القانوني.

دعوة لوقف "الروبوتات القاتلة"

في يوليو/تموز 2018، تعهَّد آلاف العلماء وخبراء الذكاء الصناعي بعدم المساعدة على تطوير أو استخدام الأسلحة ذاتية التشغيل بالكامل، ووقَّع حينها 4000 موظف في غوغل على خطاب يطالب شركتهم بإلغاء عقد مشروع "Maven" مع البنتاغون، الذي كان يهدف إلى "تحسين" ضربات الطائرات من دون طيار من خلال الذكاء الصناعي، كما أعلن 1200 أكاديمي وأكثر من 20 من حائزي جائزة نوبل للسلام دعمهم للعاملين، مما جعل غوغل تتخلى عن عملها في مشروع "Maven".

وفي شهر ديسمبر/كانون الأول الماضي، اعتمدت اللجنة المعنية بنزع السلاح والأمن الدولي في الجمعية العامة للأمم المتحدة قراراً يؤكد "الحاجة الملحة إلى أن يعالج المجتمع الدولي التحديات والمخاوف التي تثيرها أنظمة الأسلحة المستقلة". وصوتت اليابان والولايات المتحدة و150 دولة أخرى لصالح القرار، فيما صوتت روسيا والهند وبيلاروسيا ومالي ضده، وامتنعت 11 دولة عن التصويت بما فيها الصين وكوريا الشمالية وإسرائيل.

وقال الأمين العام للأمم المتحدة أنطونيو غوتيريش، إنه بحلول عام 2026، يجب أن ترسى معاهدة دولية جديدة خاصة بالتسليح تواكب تطور الأسلحة وتنظر في مجموعة أوسع من الموضوعات مثل حقوق الإنسان والقانون والأخلاق، وقالت أكثر من 100 دولة إنها تدعم إرساء معاهدة جديدة تشمل حظراً وتنظيمات على أنظمة الأسلحة الذاتية.

ويعود تاريخ استخدام الذكاء الصناعي في الحروب إلى منتصف القرن العشرين، إذ بدأت الدول الكبرى في استغلال التطورات التكنولوجية لتحقيق التفوق العسكري، وشهدت تلك الفترة تطوراً كبيراً في مجال الحوسبة والرياضيات التطبيقية، مما مهَّد الطريق لاستخدام الذكاء الصناعي في الأغراض العسكرية.

وفي الثمانينات والتسعينات، شهدت الحروب الدولية استخداماً كبيراً للتكنولوجيا، وفي الفترة نفسها، بدأ تطوير الروبوتات والطائرات بلا طيار، التي اعتمدت على الذكاء الصناعي في تنفيذ مهمات معقدة مثل الاستطلاع والهجوم. وتسارعت الوتيرة مع بداية الألفية الجديدة، إذ قدمت الطائرات بلا طيار المدعومة بالذكاء الصناعي مستوى جديداً من الاستقلالية والدقة.

وفي العقد الأخير، حدث تقدم هائل في تطبيقات الذكاء الصناعي العسكرية، من ضمنها النظم الدفاعية الذكية والتحليل التنبؤي، وباتت ما لا يقل عن 30 دولة تستخدم جيوشها تقنيات الذكاء الصناعي وتدير أنظمة دفاعية ذات أوضاع مستقلة.

هل أعجبك الموضوع؟ شاركه مع أصدقائك!