الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعى في مجال التسلح

ودعا خبراء نزع السلاح في الأمم المتحدة ومديرو شركات التكنولوجيا الكبرى إلى إبطاء سباق الذكاء الاصطناعي، وخاصة سباق التسلح. وأكدوا أن شركات تكنولوجيا المعلومات بحاجة إلى إبقاء الصورة الأكبر في الاعتبار لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة.
وقال جوزيا لوي، نائب مدير معهد الأمم المتحدة لبحوث نزع السلاح (UNIDIR)، وفقًا للموقع الرسمي للأمم المتحدة: “بالنسبة لصانعي السياسات الدفاعية، فإن التواصل مع مجتمع التكنولوجيا ليس خيارًا – من الضروري للغاية أن يشارك هذا المجتمع منذ البداية في تصميم وتطوير واستخدام الأطر التي تحكم أمن أنظمة وقدرات الذكاء الاصطناعي”.
وفي حديثها خلال مؤتمر الأمم المتحدة حول الأمن والأخلاق في جنيف، شددت جوسيا على أهمية بناء حواجز وقائية في الوقت الذي يتصارع فيه العالم مع ما وصفته بـ “لحظة أوبنهايمر” للذكاء الاصطناعي – في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي المعروف بدوره المحوري في تطوير القنبلة الذرية.
وشدد المسؤول في معهد الأمم المتحدة لبحوث نزع السلاح على ضرورة الرقابة لضمان احترام حقوق الإنسان والقانون الدولي والأخلاق في تطوير الذكاء الاصطناعي، وخاصة في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان تطور هذه التكنولوجيا القوية بطريقة خاضعة للرقابة ومسؤولة.
وأشارت إلى أن تقنيات الذكاء الاصطناعي خلقت بالفعل معضلة أمنية للحكومات والجيوش في جميع أنحاء العالم.
وبحسب أرنو فالي، رئيس العلاقات العامة في شركة Command AI، فإن الطبيعة المزدوجة لتقنيات الذكاء الاصطناعي – حيث يمكن استخدامها في البيئات المدنية والعسكرية – تحذر من أنها قد تفقد الاتصال بالواقع في ساحة المعركة، حيث يمكن أن تكلف برامجها أرواحًا بشرية.
وأضاف أن هذه الأدوات لا تزال في مراحلها الأولى، ولكن كانت هناك مخاوف منذ فترة طويلة بشأن استخدامها المحتمل في اتخاذ القرارات المتعلقة بالحياة أو الموت في أوقات الحرب، لأن هذا من شأنه أن يخلق الحاجة إلى اتخاذ القرارات البشرية والمساءلة. ومن ثم، تتزايد الدعوات إلى تنظيم هذه التكنولوجيا لتجنب الأخطاء التي قد تؤدي إلى عواقب كارثية.
وقال ديفيد سالي، الرئيس التنفيذي لشركة أدفي في لندن: “نرى هذه الأنظمة تفشل طوال الوقت، ولا تزال هذه التقنيات غير موثوقة”. وأضاف “لذلك ليس من الصعب جعلهم يرتكبون أخطاء كما يعتقد البعض في بعض الأحيان”.
وقال مايكل كريمين، مدير الدبلوماسية الرقمية، إن الفرق في مايكروسوفت تركز على المبادئ الأساسية للسلامة والأمن والشمول والإنصاف والمساءلة.
وأوضح كرمين أن عملاق التكنولوجيا الأميركي، الذي أسسه بيل جيتس، يفرض قيودا على تقنية التعرف على الوجه في الوقت الحقيقي التي تستخدمها وكالات إنفاذ القانون والتي قد تسبب أذى نفسيا أو جسديا.
وأضاف أنه يجب وضع ضوابط واضحة، ويجب على الشركات أن تعمل معًا لإزالة الحواجز. وأشار إلى أن الابتكار ليس أمراً يحدث داخل منظمة واحدة فحسب، بل هو مسؤولية يجب تقاسمها.
قالت سولينا نور عبد الله، رئيسة التخطيط الاستراتيجي والمستشارة الخاصة للأمين العام للاتحاد الدولي للاتصالات: “إن تطور الذكاء الاصطناعي يتجاوز قدرتنا على إدارة مخاطره العديدة”. وأضافت: “علينا معالجة مفارقة حوكمة الذكاء الاصطناعي، وإدراك أن التنظيم يتخلف أحيانًا عن التكنولوجيا. لذلك، يُعدّ الحوار المستمر بين خبراء السياسات والخبراء التقنيين أمرًا أساسيًا لتطوير أدوات حوكمة فعّالة”.
المصدر: أ.ش.أ.