
تحالف دولي يطالب بتزويد أنظمة الذكاء الاصطناعي بمفاتيح إيقاف إلزامية
أصدر تحالف يضم المئات من الخبراء التقنيين والمسؤولين السابقين وثيقة شاملة تتضمن خارطة طريق صارمة لتطوير الذكاء الاصطناعي الآمن. وتطالب الوثيقة بفرض قيود تشريعية تشمل منع تطوير أنظمة الذكاء الخارق دون إجماع علمي دقيق وإلزام الشركات الكبرى بدمج مفاتيح إيقاف حتمية وفعالة في جميع النماذج القوية لضمان سيطرة بشرية مطلقة.
وتؤكد التقارير الإعلامية أن أغلب الجمهور يعارض السباق غير المنظم نحو الذكاء الخارق، وتدعو الخطة أيضًا إلى حظر تصميم الخوارزميات القادرة على الاستنساخ الذاتي أو التطوير المستقل، إضافة إلى فرض اختبارات سلامة إجبارية قبل طرح أي منتجات ذكية موجهة للمستخدمين الأصغر سنًا لتجنب التلاعب النفسي.
يأتي هذا التحرك في ظل غياب قوانين حكومية فاعلة تواكب سرعة التطور في تقنيات الذكاء الاصطناعي التوليدي، ويعكس إدراكًا متزايدًا للمخاطر الوجودية والمجتمعية الناتجة عن فقدان السيطرة على الأنظمة المتطورة، مما يدفع المجتمع الدولي نحو تبني أطر تنظيمية صارمة تحمي مستقبل البشرية وتوجه الابتكار نحو مسارات آمنة ومربحة اقتصاديًا وأخلاقيًا.
الذكاء الخارق ومفاتيح الإيقاف
يُعرَّف الذكاء الخارق بأنه مستوى متقدم جدًا من الذكاء الاصطناعي يتجاوز القدرات البشرية في المعرفة والتحليل، لذا تدعو المبادئ المقترحة إلى آليات تقنية وبرمجية مدمجة داخل النظم الآلية تسمح للمشغلين البشريين بإيقاف البرامج القوية فورًا إذا خرجت عن السيطرة أو أظهرت سلوكًا خطيرًا.