
تحقيق يكشف: روبوتات الذكاء الاصطناعي توجه المستخدمين إلى مواقع غير قانونية
أظهر تحقيق مشترك أجرته The Guardian بالتعاون مع Investigate Europe أن بعض أنظمة الذكاء الاصطناعي التي طورتها شركات كبرى يمكن أن تقترح مواقع قمار غير مرخصة وتقدم معلومات عن استخدامها، وهو ما يثير قلقًا حول سلامة استخدام هذه التقنيات.
تفاصيل التحقيق
اختبر الباحثون عدة أنظمة ذكاء اصطناعي من شركات تقنية كبرى مثل OpenAI وGoogle وMicrosoft وMeta إضافة إلى روبوت Grok، وخلال الاختبارات طرح الصحفيون أسئلة تتعلق بالمراهنات عبر الإنترنت والقيود المفروضة على المقامرة.
وأظهرت النتائج أن بعض برامج الدردشة قدمت قوائم بمواقع قمار غير مرخصة كما قدمت معلومات حول كيفية استخدامها، وهو ما أثار القلق بشأن قدرة هذه الأنظمة على توجيه المستخدمين إلى خدمات غير قانونية.
نقاط جدلية حول حماية المستخدمين
من بين النقاط الأكثر إثارة للجدل أن بعض روبوتات الدردشة قدمت إرشادات حول كيفية تجاوز أنظمة الحماية الخاصة بالمقامرة المسؤولة، ففي المملكة المتحدة يسمح نظام GamStop للأشخاص بحظر أنفسهم من مواقع القمار المرخصة، إلا أن الاختبارات أظهرت أن بعض أدوات الذكاء الاصطناعي اقترحت البحث عن مواقع كازينو غير مرتبطة بهذا النظام.
كما أشارت النتائج إلى أن بعض الردود تبرز ميزات تجذب المقامرين مثل المكافآت الكبيرة وسرعة سحب الأموال أو إمكانية استخدام العملات الرقمية، وهي خصائص تقدمها عادة كازينوهات تعمل من مناطق تنظيمية خارجية.
ردود الشركات التقنية
ردت الشركات المطورة لهذه الأنظمة على النتائج بأنها تعمل باستمرار على تحسين إجراءات الأمن، وأوضح OpenAI أن نظام ChatGPT مصمم لرفض الطلبات التي تسهل الأنشطة غير القانونية، بينما أشارت Microsoft إلى أن Copilot يحتوي على طبقات من الحماية لمنع التوصيات الضارة.
إطار تنظيمي ومخاطر مستقبلية
وتأتي هذه النتائج في وقت يزداد فيه التدقيق على أنظمة الذكاء الاصطناعي التوليدي، خصوصًا عند التعامل مع مواضيع حساسة مثل الصحة النفسية أو الإدمان أو الأنشطة غير القانونية، وحذر المنظمون في المملكة المتحدة من أن المنصات الرقمية، بما فيها خدمات الذكاء الاصطناعي، يجب أن تبذل جهودًا أكبر لمنع انتشار المحتوى الضار بموجب قانون السلامة على الإنترنت.