
تفاصيل الحادث والتقارير المرتبطة بها
كشفت تقارير صحفية أن شابًا عمره 18 عامًا يُزعم أنه قتل ثمانية أشخاص في حادث إطلاق نار جماعي في تومبلر ريدج بكندا، واستخدم خلال ذلك روبوت الدردشة ChatGPT.
أشارت التقارير إلى أن المتهمة جيسي فان روتسيلار أجرت محادثات عبر ChatGPT وصفت فيها مشاهد عنف باستخدام الأسلحة النارية، مما أدى إلى وضع علامة تحذيرية على حسابها من قِبل أنظمة المراقبة الداخلية، ثم حُظر الحساب في يونيو 2025 بعد اكتشاف هذه الأنشطة.
نقاشات داخلية وتقرير السلطات
دارت نقاشات داخل OpenAI حول ما إذا كان ينبغي الإبلاغ عن هذه المحادثات لجهات إنفاذ القانون الكندية بشأن طبيعة المحادثات، إلا أن الشركة قررت في النهاية عدم الإبلاغ في ذلك الوقت.
أوضح المتحدث باسم OpenAI أن نشاط فان روتسيلار لم يستوفِ المعايير المعتمدة للإبلاغ، لكنه أشار إلى أن الشركة تواصلت مع السلطات الكندية بعد وقوع الحادث.
تواصل مع الجهات الأمنية وتورط الرقميات الأخرى
تواصلت الشركة مع الشرطة الملكية الكندية وتوفير معلومات متاحة لديها لدعم التحقيقات الرسمية.
نشاط رقمي مقلق خارج CHATGPT
أشارت التقارير إلى أن المتهمة أنشأت لعبة على Roblox تتضمن محاكاة لإطلاق نار داخل مركز تجاري، كما نشرت محتوى متعلقًا بالأسلحة على Reddit، ما يعكس اهتمامًا بهذا النوع من المواضيع قبل وقوع الجريمة.
سجل سابق مع الشرطة المحلية
كان لدى الشرطة علم بسجل المتهمة السابقة بعد أن أقدمت على إشعال حريق أثناء وجودها تحت تأثير مواد مخدرة عند التعامل مع العائلة.
اتهامات موجهة إلى روبوتات الذكاء الاصطناعي
واجهت روبوتات الدردشة المعتمدة على نماذج اللغة الكبيرة اتهامات بأنها قد تساهم في تفاقم حالات نفسية لدى بعض المستخدمين، وقد رفعت دعاوى قضائية استندت إلى نصوص محادثات تزعم أنها شجعت أشخاصًا على إيذاء أنفسهم أو قدمت لهم إرشادات حول الانتحار.
تنبيه بشأن الأزمات النفسية
وفر خط الدعم للأزمات والانتحار 988 في الولايات المتحدة للوصول إلى المساعدة عند وجود أزمة نفسية أو أفكار انتحارية.
خلاصة
تبقى هذه التطورات جزءًا من نقاش مستمر حول مسؤولية شركات الذكاء الاصطناعي وسياساتها في التعامل مع المحتوى العنيف أو المقلق الذي ينشره المستخدمون.