خلف الخوارزمية (3).. إنتل تولي الأمن السيبرانى أولوية فى سياسات الـAI

تدفع إنتل جهودها نحو تطوير الذكاء الاصطناعي المسؤول والآمن عبر معايير رائدة تسهم في التبنّي المسؤول وخوارزمياته.

تلعب إنتل دوراً حيوياً في تسريع الأبحاث وتحسين نتائج المرضى في الرعاية الصحية والعلوم الحياتية من خلال تحاليل أسرع وأكثر دقة في الطب الدقيق والتصوير الطبي وأتمتة المختبرات، وفي قطاع التصنيع تتحول البيانات إلى رؤى تدعم العملاء في تحسين أداء المصانع وتقليل فترات التوقف وزيادة الربحية، أما في البحث فتعزز شراكات مع أكاديميين حول العالم لمواجهة التحديات باستخدام ابتكارات الذكاء الاصطناعي.

معايير إنتل للذكاء الاصطناعي

تكشف إنتل عن التزامها ببيئة تنظيمية وسياسية تسهّل التبنّي المسؤول للذكاء الاصطناعي وخوارزمياته، وتدافع عن تدابير سياسات AI قائمة على المخاطر والمبادئ، كما تؤكد أهمية المعايير الطوعية لضمان التطوير المسؤول والاعتماد العالمي وتوجيه اللوائح الناشئة، وتُسهم هذه المعايير في تقليل الحواجز التجارية عبر كونها أساساً للوائح الفنية، مع دعم المنافسة والابتكار في السوق.

ما وراء الخوارزمية (1) و(2)

تشير التقارير إلى وجود معايير AI تتبناها شركات التكنولوجيا وتتنوع بين الجوانب الأخلاقية والعملية، وفي الجانب القانوني تواجه الشركات تحديات تنظيمية وقانونية تؤثر في تطبيقات الذكاء الاصطناعي على مستوى العالم.

تدعم إنتل نهجاً قائماً على المخاطر ومتعدد الأطراف لضمان موثوقية الذكاء الاصطناعي، وهو مستند إلى المعايير الدولية مثل ISO/IEC وأطر عمل مثل إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني الأميركي للمعايير والتكنولوجيا (NIST)، وتوفر هذه المعايير إرشادات أساسية لحوكمة البيانات والشفافية والدقة والمتانة والتعامل مع مسألة التحيز.

الذكاء الاصطناعي الآمن

في عصر التحول الرقمي يعيد الذكاء الاصطناعي تشكيل الصناعات وحياتنا، إلا أن تاريخ الأمن السيبراني يواجه تحديات مستمرة مع صعود قدرات AI، لذا تركز إنتل على تفعيل آليات الأمن السيبراني لمواجهة التهديدات المتطورة بدلاً من الاعتماد فقط على التدابير التقليدية.

يُشكل الذكاء الاصطناعي الآمن أساس التفاعلات الرقمية المستقبلية من خلال حماية البيانات بتقنيات أمنية متقدمة مدمجة في الأجهزة، ويتبنى نهجاً مزدوجاً يجمع بين “أمن الذكاء الاصطناعي” الذي يعزز بنية AI ضد التهديدات و”الذكاء الاصطناعي من أجل الأمن” الذي يستخدم AI لتعزيز الدفاعات السيبرانية، وهذا يتطلب توازنًا يفتح المجال للابتكار مع الحفاظ على الثقة.

ينعكس هذا التوازن في مبادئ السياسة التي تشجع على توحيد معايير AI الآمن واعتمادها، وتدفع للاستثمار في الأمن السيبراني وبحوث وتطوير AI، وتطوير مهارات الأمن السيبراني في مجال AI، وتعزيز التعاون الدولي عبر جهات مثل تحالف الذكاء الاصطناعي الآمن ومنصة Open Enterprise AI Platform for AI المؤسسي (OPEA).

Exit mobile version