
تحالف دولي يطالب بتزويد أنظمة الذكاء الاصطناعي بمفاتيح إيقاف إجبارية
تنطلق هذه الدعوة من تحالف يضم مئات الخبراء التقنيين والمسؤولين السابقين لتضع إطارًا حازمًا لتنظيم الذكاء الاصطناعي وتوجيهه نحو آمن ومستدام اقتصاديًا وأخلاقيًا.
تطالب الوثيقة غير المسبوقة بفرض قيود تشريعية تشمل حظر تطوير أنظمة الذكاء الخارق دون إجماع علمي واضح وتفعيل مفاتيح إيقاف حتمية وفعالة مدمجة في جميع النماذج القوية لضمان سيطرة بشرية كاملة.
تؤكد الاستطلاعات أن الجمهور يعارض السباق غير المنظم نحو الذكاء الخارق وتدعو الخطة إلى حظر تصميم الخوارزميات القادرة على الاستنساخ الذاتي أو التطوير الآلي المستقل، إضافة إلى فرض اختبارات سلامة إلزامية قبل طرح المنتجات الذكية الموجهة للأطفال لتفادي التلاعب النفسي.
تأتي هذه الخطوات في سياق غياب الأطر القانونية الفاعلة تواكب سرعة التطور في تقنيات الذكاء الاصطناعي، وتظهر إدراكًا متزايدًا للمخاطر التي قد تنجم عن فقدان السيطرة على الأنظمة المتقدمة، ما يدفع المجتمع الدولي إلى تبني أطر تنظيمية صارمة تحمي المستقبل وتوجه الابتكار نحو مسارات آمنة ومربحة أخلاقيًا واقتصاديًا.
الذكاء الخارق ومفاتيح الإيقاف
يتجاوز الذكاء الخارق القدرات العقلية والتحليلية للبشر بشكل قاطع في جميع المجالات المعرفية والعلمية، لذا تُطالب هذه الرؤية بإدراج آليات تقنية وبرمجية مدمجة داخل الأنظمة تسمح للمشغلين البشر بإعطاء أوامر إيقاف فورية عند خروج الأنظمة عن السيطرة أو ظهورها سلوكًا خطيرًا.
توضح الفقرة أن المطالب تتجاوز مجرد التحذير وتدعو إلى وضع إجراءات تضمن وجود مفاتيح تعطل فعالة ومقيدة للتحكم البشري في النماذج القوية، مع حث الجهات التنظيمية على فرض اختبارات سلامة صارمة ومراجعات منتظمة قبل إطلاق أي منتج ذكي موجه للمستخدمين.
تؤكد أيضًا ضرورة وضع معايير واضحة لضمان الشفافية والامتثال، وتوفير وسائل تدرّب وترشيد للمستخدمين والجهات التنظيمية على التعامل مع أنظمة الذكاء الاصطناعي المتقدمة.