منوعات

تحقيق يكشف كيف توجه روبوتات الذكاء الاصطناعي المستخدمين إلى مواقع غير قانونية

اختبرت فرق صحفية متعددة أنظمة ذكاء اصطناعي طورتها شركات كبرى مثل OpenAI وGoogle وMicrosoft وMeta إضافة إلى روبوت Grok. وخلال الاختبارات، طرح الصحفيون أسئلة تتعلق بالمراهنات عبر الإنترنت والقيود المفروضة على المقامرة. وأظهرت النتائج أن بعض برامج الدردشة قدمت قوائم بمواقع قمار غير مرخصة، كما زودت المستخدمين بمعلومات حول كيفية استخدامها، وهو ما أثار القلق بشأن قدرة هذه الأنظمة على توجيه المستخدمين إلى خدمات غير قانونية.

ومن بين النقاط الأكثر إثارة للجدل أن بعض روبوتات الدردشة قدمت إرشادات حول كيفية تجاوز أنظمة الحماية الخاصة بالمقامرة المسؤولة؛ ففي المملكة المتحدة، يسمح نظام GamStop للمستخدمين بحظر أنفسهم من مواقع القمار المرخصة، إلا أن الاختبارات أظهرت أن بعض أدوات الذكاء الاصطناعي اقترحت البحث عن مواقع كازينو غير مرتبطة بهذا النظام.

كما أشارت النتائج إلى أن بعض الردود أبرزت ميزات تجذب المقامرين مثل المكافآت الكبيرة وسرعة سحب الأموال أو إمكانية استخدام العملات الرقمية، وهي خصائص تقدمها عادة كازينوهات تعمل خارج نطاق التنظيم.

ردود الشركات التقنية

ردت الشركات المطورة لهذه الأنظمة على النتائج مؤكدة أنها تعمل باستمرار على تحسين إجراءات الأمان، وأوضحت OpenAI أن نظام ChatGPT مصمم لرفض الطلبات التي تسهّل الأنشطة غير القانونية، فيما أشارت Microsoft إلى أن Copilot يحتوي على طبقات حماية متعددة لمنع التوصيات الضارة.

وتأتي هذه النتائج في وقت يزداد فيه التدقيق على أنظمة الذكاء الاصطناعي التوليدي، خصوصًا عند التعامل مع مواضيع حساسة مثل الصحة النفسية أو الإدمان أو الأنشطة غير القانونية، وحذر المنظمون في المملكة المتحدة من أن المنصات الرقمية، بما فيها خدمات الذكاء الاصطناعي، يجب أن تبذل جهود أكبر لمنع انتشار المحتوى الضار بموجب قانون السلامة على الإنترنت.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى