مجموعات حقوق الإنسان تضخيم دعوة لـ "Killer Robot" Ban


جدد قادة حقوق الإنسان دعوتهم إلى فرض حظر عاجل على أسلحة مستقلة قاتلة
دليل
لتجار التجارة الإلكترونية: معارضة عمليات رد المبالغ المدفوعة أنشأنا هذا الدليل لمساعدة التجار في رؤية حيل المحتالين وحماية أعمالهم من عمليات رد المبالغ المدفوعة ، دون المساس بتجربة التسوق. قم بتنزيل الدليل.
وأصدر قادة من هيومن رايتس ووتش والعيادة الدولية لحقوق الإنسان بكلية الحقوق بجامعة هارفارد الأسبوع الماضي تحذيرا قاسيا بأن دولا حول العالم لم تفعل ما يكفي لحظر تطوير أسلحة مستقلة - ما يطلق عليه "الروبوتات القاتلة".
وأصدرت الجماعات تقريرا مشتركا يدعو إلى فرض حظر كامل على هذه الأنظمة قبل أن تبدأ هذه الأسلحة في شق طريقها إلى الترسانات العسكرية ، ويصبح الوقت متأخرا جدا للعمل.
وانضمت مجموعات أخرى ، بما في ذلك منظمة العفو الدولية ، إلى تلك الدعوات العاجلة إلى إبرام معاهدة لحظر أنظمة الأسلحة هذه ، وذلك قبل اجتماع فريق الخبراء الحكوميين المعنيبالأسلحة النووية القاتلة التابع للأمم المتحدة في جنيف هذا الأسبوع .
تجمع هذا الأسبوع هو الحدث الثاني من هذا القبيل. كان اجتماع العام الماضي هو أول مرة يناقش فيها المندوبون من جميع أنحاء العالم التداعيات العالمية لتقنيات الروبوت القاتل.
وقالت رشا عبد الرحيم ، مستشارة منظمة العفو الدولية للذكاء الاصطناعي وحقوق الإنسان: "الروبوتات القاتلة لم تعد مادة الخيال العلمي". "من الطائرات ذات الذكاء الاصطناعي إلى المدافع الآلية التي يمكن أن تختار أهدافها ، فإن التقدم التكنولوجي في مجال الأسلحة يفوق بكثير القانون الدولي."
وقد أدى الاجتماع الأول في العام الماضي إلى موافقة العديد من الدول على حظر تطوير الأسلحة التي يمكن أن تحدد الأهداف وتطلقها دون تدخل بشري حقيقي. وحتى الآن ، دعت 26 دولة إلى فرض حظر مباشر قاتل للإنسان الآلي ، بما في ذلك النمسا والبرازيل ومصر. وقد دعت الصين إلى وضع بروتوكول جديد لاتفاقية حظر أو تقييد استعمال أسلحة تقليدية معينة يحظر استخدام أنظمة الأسلحة المستقلة بالكامل.
ومع ذلك ، فقد سجلت الولايات المتحدة وفرنسا وبريطانيا العظمى وإسرائيل وكوريا الجنوبية وروسيا معارضة لإنشاء أي محظورات ملزمة قانونًا لهذه الأسلحة أو التقنيات التي تقف وراءها.
الرأي العام مختلط ، استناداً إلى استطلاع معهد بروكينغز الذي أجري في الأسبوع الماضي.
وقد أيد 30 في المائة من الأمريكيين البالغين تطوير تكنولوجيات الذكاء الاصطناعي لاستخدامها في الحروب ، كما وجد ، مع معارضة 39 في المائة و 32 في المائة غير متأكدين.
ومع ذلك ، فقد وجد الاستطلاع أيضًا أن دعم استخدام قدرات الذكاء الاصطناعي في الأسلحة ازداد بشكل ملحوظ إذا كان من المعروف أن الخصوم الأمريكيين كانوا يطورون هذه التكنولوجيا.
في هذه الحالة ، قال 45٪ من المشاركين في الاستطلاع إنهم سيدعمون الجهود الأمريكية لتطوير أسلحة الذكاء الاصطناعي ، مقابل 25 ممن عارضوا و 30٪ كانوا غير متأكدين.

احدث اسلحة الدمار الشامل

لقد تم أخذ علم القتل إلى مستوى تكنولوجي جديد - ويشعر العديد بالقلق إزاء فقدان السيطرة البشرية.
وقال مايك بليدز ، مدير الأبحاث في شركة فروست أند سوليفان: "تعتبر الأسلحة المستقلة مثالاً آخر للتكنولوجيا العسكرية يفوق القدرة على تنظيمها" .
في منتصف القرن التاسع عشر طور ريتشارد جاتلينج أول سلاح سريع ناجح في بندقية جاتلينج الخاصة به ، وهو تصميم أدى إلى مدافع رشاشة حديثة. عندما تم استخدامها في ساحات المعارك في الحرب العالمية الأولى قبل 100 عام ، كان القادة العسكريون غير قادرين تمامًا على فهم إمكانات القتل. وكانت النتيجة حرب الخنادق المروعة. لقد قُتل عشرات الملايين على مدار الصراع الذي دام أربع سنوات.
ومن المفارقات الساخرة أن جاتلينج قال إنه صنع سلاحه كطريقة لتقليل حجم الجيوش ، وبالتالي تقليل عدد الوفيات الناجمة عن القتال. ومع ذلك ، يعتقد أيضا أن مثل هذا السلاح يمكن أن يظهر عقم الحرب.
تمتلك الأسلحة المستقلة إمكانات مماثلة لتقليص عدد الجنود المتضررين - ولكن كما هو الحال مع بندقية جاتلينج أو مدفع رشاش عصر الحرب العالمية الأولى ، يمكن للأجهزة الجديدة أن تزيد من إمكانيات القتل لحفنة من الجنود.
الترسانات العسكرية الحديثة يمكنها بالفعل إخراج أعداد كبيرة من الناس.
وقال بليدز لـ TechNewsWorld: "شيء واحد يجب فهمه هو أن الاستقلالية لا تزيد في الواقع من القدرة على تدمير العدو. يمكننا فعل ذلك بالفعل باستخدام الكثير من الأسلحة".
وأضاف "هذه في الواقع طريقة لتدمير العدو دون وضع شعبنا في طريق الأذى .. لكن مع هذه القدرة هناك التزامات أخلاقية." "هذا هو المكان الذي لم نكن فيه بالفعل ، ويجب أن نخطو بحذر."

تدمير هائل أقل

لقد حدثت تطورات أخرى في الأسلحة التكنولوجية ، من الغاز السام الذي استخدم في خنادق الحرب العالمية الأولى قبل قرن إلى القنبلة الذرية التي تم تطويرها خلال الحرب العالمية الثانية. كل بدوره أصبح قضية للنقاش.
إن الفظائع المحتملة التي يمكن أن تطلقها الأسلحة المستقلة الآن هي نفس المستوى من الاهتمام والاهتمام.
وحذر ستيوارت راسل ، أستاذ علوم الكمبيوتر وأستاذ الهندسة في جامعة سميث-زاده بجامعة كاليفورنيا في بيركلي ، من أن "الأسلحة المستقلة هي أكبر تهديد منذ الأسلحة النووية ، وربما أكبر".
وقال لـ TechNewsWorld: "لأنهم لا يحتاجون إلى إشراف بشري فردي ، فإن الأسلحة المستقلة هي أسلحة قابلة للتطوير بشكل كبير. يمكن إطلاق عدد غير محدود جوهريًا من قبل عدد قليل من الناس".
وأضاف روسل: "هذه نتيجة منطقية لا مفر منها للحكم الذاتي ، ونتيجة لذلك ، نتوقع أن الأسلحة المستقلة سوف تقلل الأمن البشري على المستوى الفردي والمحلي والوطني والدولي".
ومن الشواغل الملحوظة للأسلحة الصغيرة المستقلة أن استخدامها يمكن أن يؤدي إلى تدمير مادي أقل بكثير مما قد تسببه الأسلحة النووية أو غيرها من أسلحة الدمار الشامل ، الأمر الذي قد يجعلها "عملية" تقريبًا.
وأشار راسل إلى أن الأسلحة المستقلة "تترك الممتلكات سليمة ويمكن تطبيقها بشكل انتقائي للقضاء فقط على أولئك الذين قد يهددون قوة احتلال".

قوة المضاعف

كما هو الحال مع الغاز السام أو الأسلحة المتطورة تكنولوجيا ، يمكن للأسلحة ذاتية الحكم أن تكون قوة مضاعفة. يمكن أن تتفوق بندقية جاتلينج بشكل حرفي على عشرات الجنود. في حالة الأسلحة المستقلة ، يمكن نقل مليون وحدة قاتلة في شاحنة حاوية واحدة أو طائرة شحن. ومع ذلك ، قد لا تتطلب أنظمة الأسلحة هذه سوى اثنين أو ثلاثة من المشغلين البشريين بدلا من اثنين أو ثلاثة ملايين.
وقال رسل: "ستكون هذه الأسلحة قادرة على تعقب البشر في البلدات والمدن والقضاء عليها ، حتى داخل المباني". "ستكون رخيصة ، وفعالة ، وغير قابلة للتوزيع ، وينتشر بسهولة عندما تبدأ القوى الكبرى في الإنتاج الضخم وتصبح الأسلحة متوفرة في سوق الأسلحة الدولي".
هذا يمكن أن يعطي دولة صغيرة ، دولة مارقة أو حتى الفاعل الوحيد القدرة على القيام بأضرار كبيرة. يمكن تطوير هذه الأسلحة حتى الدخول في سباق تسلح جديد بين القوى من جميع الأحجام.
ولهذا السبب ، فإن الصرخات لحظرها قبل تطويرها قد تزايدت بشكل كبير ، خاصة مع تطوير التقنيات الأساسية - الذكاء الاصطناعي والتعلم الآلي - للأغراض المدنية. يمكن بسهولة أن تكون عسكرية لصنع الأسلحة.
وقالت بوني دوهرتي ، الباحثة الرئيسية في قسم الأسلحة في هيومن رايتس ووتش ، وأحد مؤلفي هذه الأخيرة: "يجب مناقشة الأسلحة المستقلّة بالكامل الآن ، نظرًا للتطور السريع للتكنولوجيا المستقلّة ، يمكن أن يصبح الأمر واقعًا قريبًا". ورقة دعت إلى فرض حظر على الروبوتات القاتلة.
وقالت لـ TechNewsWorld: "بمجرد دخولهم الترسانات العسكرية ، من المرجح أن يتكاثروا ويستخدموا".
واضاف دوشيرتي "اذا انتظرت الدول فلن تصبح الاسلحة مسألة في المستقبل."
وقد استجاب بالفعل العديد من العلماء والخبراء الآخرين للدعوة لحظر الأسلحة المستقلة ، ووقع آلاف من خبراء منظمة العفو الدولية هذا الصيف تعهداً بعدم المساعدة في تطوير الأنظمة للأغراض العسكرية.
وهذا التعهد مماثل لنداء علماء مشروع مانهاتن بعدم استخدام القنبلة الذرية الأولى. بدلاً من ذلك ، اقترح العديد من العلماء الذين عملوا على تطوير القنبلة أن الجيش يقدم فقط دليلاً على قدرته بدلاً من استخدامه على هدف مدني.
"المعارضة القوية للأسلحة ذاتية الحكم اليوم" تبين أن الأسلحة المستقلة بالكامل تسيء إلى الضمير العام ، وأن الوقت قد حان لاتخاذ إجراءات ضدهم ، "لاحظت Docherty.

الاستخدامات العملية للحكم الذاتي

ومع ذلك ، يمكن القول إن نداءات مختلف المجموعات يمكن أن تكون نقطة خلافية.
على الرغم من أن الولايات المتحدة لم توافق على الحد من تطوير الأسلحة المستقلة ، فقد تركزت الجهود البحثية بشكل أكبر على الأنظمة التي تستخدم الاستقلالية لأغراض أخرى غير الأسلحة القتالية.
"تقوم وكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA) حاليًا بالتحقيق في دور الاستقلالية في الأنظمة العسكرية مثل الطائرات بدون طيار ، ونظم الإنترنت ، ووحدات معالجة اللغات ، ومراقبة الطيران ، والمركبات البرية غير المأهولة ، ولكن ليس في أنظمة القتال أو الأسلحة" ، كما قال المتحدث باسم جاريد. ب. ادامز.
"أصدر وزارة الدفاع التوجيه 3000.09 في عام 2012 ، والذي تم إعادة التصديق عليه في العام الماضي ، ويشير إلى أن البشر يجب أن يحافظوا على الحكم على استخدام القوة حتى في أنظمة الحكم الذاتي وشبه المستقلة" ، وقال في TechNewsWorld.
وأوضح آدامز أن "مجموعة أبحاث داربا المستقلة بذاتها هي ذات طبيعة دفاعية تبحث عن طرق لحماية الجنود من الأنظمة غير المأذونة للتخاصم ، وتعمل بسرعة الآلة ، و / أو الحد من تعرض رجال خدمتنا ونساءنا لأضرار محتملة".
واقترح كابتن (US) براد مارتن ، كبير الباحثين في مجال السياسات في مجال التكنولوجيا المستقلة في المركبات البحرية في مؤسسة راند ، أن "خطر الأسلحة المستقلة مبالغ فيه" .
وقال لـ TechNewsWorld: "لقدرة السلاح على إشراك أهداف بدون تدخل بشري موجودة منذ سنوات".
كما أن الأنظمة شبه المستقلة ، تلك التي لا تعطي القدرة الكاملة على الماكينة ، يمكن أن يكون لها أيضًا فوائد إيجابية. على سبيل المثال ، يمكن أن تتفاعل الأنظمة المستقلة بسرعة أكبر بكثير من العوامل البشرية.
وأشار مارتن إلى أن "اتخاذ القرارات التي يتخذها البشر يؤدي في الواقع إلى إبطاء الأمور" ، لذا فإنه في العديد من الأسلحة ، تكون هذه القضية قضية حقوق إنسان وأكثر قضية تتعلق بتكنولوجيا الأسلحة.

دور شبه مستقل

عندما تصبح قضية الروبوتات القاتلة أكثر تعقيدا فهي في أنظمة شبه مستقلة - تلك التي لديها هذا العنصر البشري. مثل هذه الأنظمة يمكن أن تعزز منصات الأسلحة القائمة ويمكن أن تساعد المشغلين أيضًا في تحديد ما إذا كان من الصواب "التقاط الصورة".
وقال فروست أند سوليفان بليد "العديد من برامج البحث والتطوير تعمل على تطوير أنظمة آلية يمكنها اتخاذ هذه القرارات بسرعة".
وقال في حديثه مع TechNewsWorld: "يمكن استخدام الذكاء الاصطناعي لتحديد شيء قد لا يتمكن فيه محلل بشري من العمل مع المعلومات المقدمة بسرعة ، وهذا هو المكان الذي نرى فيه التكنولوجيا تشير بشكل صحيح".
وأضاف بليد "في الوقت الحالي لا توجد جهود حقيقية للحصول على نظام صنع القرار الآلي بالكامل".
كما يمكن لهذه الأنظمة شبه المستقلة أن تسمح بنشر الأسلحة على مسافة أقرب من المشغل البشري. يمكنهم تقليل عدد حوادث "الصداقة" بالإضافة إلى الأضرار الجانبية. بدلا من أن يكون النظام الذي قد يزيد من الإصابات ، يمكن أن تصبح الأسلحة أكثر عملية في الطبيعة.
وقال مارتن من راند: "يمكن أن توفر هذه تغطية أوسع لأجهزة الاستشعار يمكن أن تقلل من غموض ساحة المعركة ، وتحسين الوعي بالأوضاع في لحظة فوضوية".
وقالت Docherty من هيومن رايتس ووتش: "لا تسعى حملتنا إلى حظر أي أسلحة شبه مستقلة أو روبوتات ذاتية غير مسلّحة بالكامل".
واضافت "اننا نشعر بالقلق ازاء الاسلحة المستقلة بالكامل وليس الاسلحة شبه المستقلة. واسلحة مستقلة تماما هى خطوة تتجاوز الطائرات المسيرة بدون طيار التى يتم التحكم فيها عن بعد".

قليل جدا ، متأخر جدا

من غير المؤكد ما إذا كان من الممكن إيقاف تطوير الأسلحة المستقلة - حتى بدعم من الأمم المتحدة. إنه أمر مشكوك فيه ما إذا كان يجب إيقافه بالكامل. كما هو الحال في حالة القنبلة الذرية ، أو المدفع الرشاش ، أو الغاز السام قبلها ، حتى إذا كانت دولة واحدة تمتلك التكنولوجيا ، فإن الدول الأخرى تريد أن تتأكد من أن لديها القدرة على الرد بالمثل.
وبالتالي يمكن أن يكون سباق التسلح الذاتي حتميا. يمكن إجراء مقارنة للأسلحة الكيميائية والبيولوجية. إن اتفاقية الأسلحة البيولوجية - وهي أول معاهدة متعددة الأطراف لنزع السلاح تحظر تطوير وإنتاج هذه الفئة بأكملها من أسلحة الدمار الشامل وإنتاجها بشكل ملحوظ - تم إدخالها لأول مرة في عام 1972. ومع ذلك فإن العديد من الدول لا تزال تحتفظ بإمدادات هائلة من الأسلحة الكيميائية. في الواقع ، تم استخدامها في الحرب الإيرانية-العراقية في الثمانينيات ، ومؤخراً من قبل مقاتلي داعش ، والحكومة السورية في حربها الأهلية المستمرة.
وبالتالي ، لا يمكن وقف تطوير الأسلحة المستقلة بالكامل ، ولكن يمكن التخفيف من استخدامها الفعلي.
"قد ترغب الولايات المتحدة في أن تكون في الصدارة مع قواعد الاشتباك على الأقل حيث يمكن استخدام الروبوتات المسلحة" ، يقترح بليدز.
وقال "قد لا نوقع على هذا الاتفاق ، لكننا بالفعل وراء حدود انتشار الأسلحة المتقدمة الأخرى".
"السذاجة أن تسفر عن استخدام شيء سوف يتم تطويرها سواء أحببنا ذلك أم لا، خصوصا أن هذا سوف ينتهي بها المطاف في أيدي أولئك العناصر السيئة التي قد لا يكون لدينا مخاوف أخلاقية"، وقال مارتن هو عليه.
خلال الحرب الباردة ، كانت الأسلحة النووية تعني الدمار المؤكد بشكل متبادل ، ولكن كما أظهر التاريخ ، كان من المؤكد أن أسلحة أخرى - بما في ذلك الغاز السام وغيره من الأسلحة الكيميائية - قد استخدمت ، حتى في الآونة الأخيرة في العراق وسوريا.
"إذا كان هتلر يملك القنبلة الذرية لكان قد وجد طريقة لتسليمها إلى لندن" ، كما يلاحظ مارتن. "هذا جيد مثل القياس للأسلحة المستقلة كما يمكننا الحصول عليها." 

مجموعات حقوق الإنسان تضخيم دعوة لـ "Killer Robot" Ban

ليست هناك تعليقات:

نموذج الاتصال

الاسم

بريد إلكتروني *

رسالة *