
الصين تحذر من استخدام الذكاء الاصطناعي عسكريًا: يهدد نهاية العالم
تعلن الحكومة الصينية تحذيرًا شديد اللهجة من مخاطر استخدام الذكاء الاصطناعي في المجال العسكري، محذّرة من أن التطبيق دون ضوابط قد يقود إلى سيناريو كارثي يشبه نهاية العالم. تشير السلطات إلى أن الخطر لا يكمُن فقط في القدرة التدميرية لهذه التكنولوجيا، بل أيضاً في غياب أطر تنظيمية دولية تقيد استخدامها. أكّد مسؤولو وزارة الخارجية في تصريحات خلال مؤتمر دولي حول الأمن التكنولوجي أن الخوارزميات المستخدمة في الأسلحة ذاتية التشغيل قد تتخذ قرارات قاتلة من دون تدخل بشري. أشارت الحكومة إلى ضرورة وضع قواعد دولية تمنع تحول الخوارزميات إلى من يحدد مصير الحروب وتضمن إشراف الإنسان على القرارات القتالية.
غياب الأطر الدولية
وتشير السلطات إلى أن المشكلة ليست فقط في القدرة التدميرية، بل أيضاً في غياب أطر دولية واضحة تنظم استخدام هذه الأنظمة. وأضاف المتحدث أن استخدام الذكاء الاصطناعي بشكل غير مسؤول قد يؤدي إلى نتائج كارثية، ما يستدعي وضوح القواعد الدولية لمنع أن تتحول الخوارزميات إلى من يقرر مصير الحروب. وتلفت التصريحات إلى أن غياب الشفافية في خوارزميات الصندوق الأسود يجعل من الصعب تحديد أسباب اتخاذ قرارات الإطلاق وتحديد المسؤولية. وتذكر المصادر أن النزاعات الحديثة، كما يظهر في الشرق الأوسط، تبرز أهمية تحليل المعلومات واختيار الأهداف لكنها تؤكد أن القرارات الحاسمة يجب أن تبقى تحت إشراف البشر.
وتدعو الصين إلى إبرام اتفاقيات دولية متعددة الأطراف تفرض قيوداً على استخدام الأسلحة الذاتية وتضمن إشراف الإنسان على القرارات القتالية. وأكدت أن هذه الاتفاقيات يجب أن تنظم سائر جوانب الذكاء الاصطناعي العسكري وتعمل على منع سباق تسلح غير مسؤول. وشدّدت على ضرورة سرعة الوصول إلى آليات دولية تضمن تقليل مخاطر الاعتماد على الأجهزة في اتخاذ قرارات القتل. وتظهر التصريحات أن الأولوية هي حفظ الحياة الإنسانية وتجنب مخاطر السيطرة الآلية على سير الحروب.