منوعات

ما وراء الخوارزمية (3).. إنتل تركز على الأمن السيبراني في سياسات الذكاء الاصطناعي

تسهم إنتل في ريادة الذكاء الاصطناعي عبر مجموعة متكاملة من الأجهزة والبرامج التي تسرع الأبحاث وتدعم نتائج أعلى دقة في الرعاية الصحية وعلوم الحياة من خلال تحليلات أكثر سرعة ودقة في الطب الدقيق والتصوير الطبي وأتمتة المختبرات. كما تمكّن في قطاع التصنيع من تحويل البيانات إلى رؤى تساعد العملاء على تحسين أداء المصانع وتقليل فترات التوقف وتعزيز السلامة وزيادة الربحية. وفي مجال البحث، تتعاون إنتل مع أكاديميين حول العالم لمواجهة التحديات العالمية باستخدام ابتكارات الذكاء الاصطناعي.

معايير الذكاء الاصطناعي لدى إنتل

تُظهر إنتل التزامها بدعم بيئة تنظيمية تشجع التبني المسؤول للذكاء الاصطناعي وخوارزمياته، وتدافع عن مبادئ ومعايير الذكاء الاصطناعي الطوعية لضمان التطوير المسؤول والتوافق العالمي، وتؤكد أنها قاعدة لتوجيه اللوائح الفنية وتقليل الحواجز التجارية مع تعزيز المنافسة والابتكار في السوق.

ما وراء الخوارزمية ومواءمة المعايير

تسلط تقارير صناعية الضوء على سبع معايير أساسية تلتزم بها شركات التكنولوجيا في الذكاء الاصطناعي منها حوكمة البيانات والشفافية والدقة والمتانة وتقليل التحيز، كما تُبرز أربعة تحديات قانونية تواجهها الشركات التقنية، بما في ذلك قضايا الملكية الفكرية والخصوصية والشفافية والتوافق التنظيمي.

نهج إنتل في الذكاء الاصطناعي الآمن

تدعم إنتل نهجاً قائمًا على المخاطر ومتعدد الأطراف لضمان موثوقية الذكاء الاصطناعي، مبنية على المعايير الدولية مثل ISO/IEC وأطر مثل إطار إدارة مخاطر الذكاء الاصطناعي من المعهد الوطني للمعايير والتكنولوجيا (NIST)، وتوفر هذه المعايير أطر توجيهية تغطي حوكمة البيانات والشفافية والدقة والمتانة وتقليل التحيز بما يضمن قابلية الاعتماد والسلامة.

الذكاء الاصطناعي الآمن في عصر التحول الرقمي

يعيد الذكاء الاصطناعي تشكيل الصناعات وتحسين الحياة، لكن تاريخ الأمن السيبراني صراع مستمر، ومع تزايد قدرة الذكاء الاصطناعي على إجراء حسابات معقدة يمكن استغلالها من قبل المهاجمين، لذا ترى إنتل ضرورة تفعيل آليات الأمن السيبراني لمواجهة هذه التهديدات بدلاً من الاعتماد على التدابير التقليدية. يشكل الذكاء الاصطناعي الآمن أساس التفاعلات الرقمية المستقبلية، حيث يحمي البيانات بتقنيات أمنية متقدمة مدمجة في الأجهزة، ونُعتمد نهجاً مزدوجاً يجمع بين أمن الذكاء الاصطناعي وأمن من أجل الأمن. مع تطور أنظمة الذكاء الاصطناعي، ينبغي تزويدها بدفاعات برمجية وأجهزة متقدمة ضد الثغرات، ويظل من مبادئ سياسات الذكاء الاصطناعي تمكين الابتكار دون المساس بالثقة، ويتجسد ذلك من خلال: تشجيع توحيد معايير الذكاء الاصطناعي الآمن واعتماده، الاستثمار في الأمن السيبراني والبحث والتطوير في مجال الذكاء الاصطناعي، تطوير مهارات الأمن السيبراني في مجال الذكاء الاصطناعي، وتعزيز التعاون الدولي بين الحكومات والجهات المعنية مثل تحالف الذكاء الاصطناعي الآمن (CoSAI) والمنصة المفتوحة للذكاء الاصطناع المؤسسي (OPEA).

google.com, pub-7984506988189976, DIRECT, f08c47fec0942fa0

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى