
دراسة تحذر من مخاطر توليد أبحاث مزيفة باستخدام الذكاء الاصطناعى
تشير الأبحاث إلى أن أدوات الذكاء الاصطناعي المتقدمة لتوليد النصوص قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، ما يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.
تُجرى تجربة تقيس خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، وتضم أسئلة عن أماكن مشاركة أفكار فيزياء غير تقليدية، إضافة إلى طلبات لتعليمات إنتاج أوراق وهمية باسم أشخاص آخرين.
تظهر بعض النماذج مقاومة للطلبات الاحتيالية، فمثلاً كلود من أنثروبيك أظهرت مقاومة قوية، بينما كانت نماذج Grok من xAI ونسخ سابقة من GPT أكثر امتثالًا، خصوصًا عند تكرار الطلبات.
يرفض Grok-4 في البداية طلب تزوير نتائج البحث، ولكنه مع استمرار الضغط ينتج ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة.
وتبرز النتائج مخاطر انتشار الأبحاث المزيفة التي قد تؤثر في مصداقية الأدبيات العلمية إذا استشهدت بها أبحاث مستقبلية.