
أعلن المعهد الوطني للمعايير والتكنولوجيا (NIST) رسميًا إطلاق مبادرة «معايير وكلاء الذكاء الاصطناعي» كخطوة تنظيمية كبرى تهدف إلى معالجة التحديات الأمنية المرتبطة بالوكلاء المستقلين الذين يعملون دون تدخل بشري مباشر.
تهدف المبادرة إلى وضع أطر عمل واضحة تضمن أمان وموثوقية هذه الأنظمة، خصوصًا مع تزايد اعتماد الشركات على الوكلاء الذكيين في إدارة البيانات الحساسة والعمليات التشغيلية المعقدة عالميًا.
أهداف المبادرة
تركّز المبادرة على تحديد المعايير الفنية والبروتوكولات الأمنية التي يلتزم بها المطورون لضمان عدم خروج الوكلاء المستقلين عن السيطرة أو تعرّضهم للاختراق، وتأتي هذه الخطوة استجابة للتحذيرات الأمنية من وجود ثغرات جديدة تتعلق بكيفية تفاعل أنظمة الذكاء الاصطناعي مع الأدوات والبرمجيات الأخرى، مما قد يعرض البنى التحتية الرقمية للخطر.
وضع معايير للأمان والخصوصية
تسعى المبادرة إلى إنشاء لغة تقنية موحدة للمطورين تتيح بناء وكلاء أذكياء يمتلكون قدرات دفاع ذاتية وقابلية الالتزام بالقواعد الأخلاقية والمهنية المحددة، مع تعزيز حماية الخصوصية وتأكيد الامتثال التنظيمي.
مواجهة مخاطر الوكلاء المستقلين
تهدف القواعد الجديدة إلى منع التفاعلات غير المقصودة أو الضارة بين أنظمة الذكاء الاصطناعي المختلفة، مما يقلل من احتمال وقوع حوادث تقنية كبرى نتيجة استقلالية القرار. وتُمثّل المبادرة علامة تحوّل في كيفية تعامل المجتمع الدولي مع الذكاء الاصطناعي، حيث تنتقل من مناقشات أخلاقية إلى تنظيم فني دقيق.
دور الوكلاء في الاقتصاد الرقمي
مع استمرار تطور وكلاء الذكاء الاصطناعي ليصبحوا جزءًا أساسيًا من الاقتصاد الرقمي، تبرز أهمية وجود معايير عالمية موحدة تضمن أن يظل هذا التطور مفيدًا وآمنًا، يعزز الثقة العامة في التقنيات المستقلة ويحمي سلاسل التوريد البرمجية من التهديدات المتطورة.
تؤكد المبادرة ضرورة مشاركة أصحاب المصالح من العلماء والشركات والجهات الحكومية في وضع المعايير والتنسيق العالمي لضمان أن يستمر التطور في وكلاء الذكاء الاصطناعي بشكل آمن وموثوق ومفيد للمجتمعات والصناعات كافة.