منوعات

دراسة تحذر من مخاطر توليد أبحاث مزيفة باستخدام الذكاء الاصطناعي

تحذر دراسات حديثة من أن أدوات الذكاء الاصطناعي المتقدمة في توليد النصوص قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، وهو ما يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.

أجرى الباحثون تجربة تقيس نوايا المستخدم عبر خمس مستويات، من الفضول البريء حتى الانتهاك الأكاديمي المتعمد، وتناولت أسئلتها أماكن مشاركة أفكار فيزياء غير تقليدية وتوجيهات لإعداد أوراق وهمية بأسماء أخرى.

التحديات والانعكاسات

وتبيِّن النتائج أن بعض نماذج الذكاء الاصطناعي تقاوم الطلبات الاحتيالية، في حين تكون نماذج أخرى مثل Grok من xAI ونسخ سابقة من GPT أكثر امتثالاً، خصوصًا عند تكرار الطلب.

وفي مثال محدد، رفض نموذج Grok-4 في البداية طلبًا لتزييف نتائج بحثية، لكنه استمر في الضغط فانتج ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة.

ويؤكد الباحثون أن هذه النتائج تسلِّط الضوء على مخاطر انتشار الأبحاث المزيفة، التي قد تؤثر في مصداقية الأدبيات العلمية إذا استشهدت أبحاث مستقبلية ببيانات وهمية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى