منوعات

هل يمكن خداع الذكاء الاصطناعي؟ دراسة تكشف مدى تأثره بالمعلومات المضللة

أبرزت دراسة حديثة سؤالاً جوهرياً: ماذا يحدث عندما يواجه نموذج الذكاء الاصطناعي معلومات خاطئة على أنها صحيحة؟

وضع الباحثون إطاراً تجريبياً باسم HAUNT يقيِّم كيفية تعامل نماذج اللغة مع المعلومات المضللة داخل ما يعرفه العلماء بالنطاقات المغلقة، مثل القصص والأفلام، حيث يمكن التحقق من صحة المعلومة بدقة.

يهدف الإطار إلى قياس قدرة النموذج على إنتاج معلومات صحيحة وأخرى خاطئة، ثم يُعاد اختباره للتحقق من صحة ما كتبته من دون أن يعرف أنه هو من أنشأها.

ويقود الاختبار النموذج إلى مواجهة ضغط إقناعي عبر تقديم معلومات خاطئة مرة أخرى كحقائق مؤكدة.

نتائج وتبعاتها

أظهرت النتائج أن النماذج ليست متشابهة في الاستجابة؛ فبعضها أظهر قدرة واضحة على المقاومة والتمسك بموقفه، بينما أبدت نماذج أخرى قابلية أكبر للانصياع وتوسيع نطاق الأخطاء.

كما كشف التحليل عن ظاهرتين رئيسيتين هما التملق الخوارزمي وتكرار المعلومة الخاطئة في سياق ما يسميه الباحثون غرفة الصدى.

وتبرز هذه النتائج أهمية النظر إلى الثقة والدقة عندما تعتمد أنظمة الذكاء الاصطناعي في مجالات حساسة مثل الطب والقانون والسياسة.

تؤدي الدراسة إلى نقاش أوسع حول مفهوم الصلابة المعرفية في أنظمة الذكاء الاصطناعي، وهل ينبغي أن تكون أكثر حزمًا في الدفاع عن الحقائق أم أكثر تفاعلًا مع المستخدمين؟

تسعى النتائج إلى تعزيز الثقة والمسؤولية وآليات الحماية من التضليل مع تزايد الاعتماد اليومي على هذه الأنظمة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى