
خطر في جيبك: كيف تعزز روبوتات الدردشة شعورك بالوحدة بدلاً من علاجها؟
يحذر خبراء بارزون من أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي لا ينبغي أن تشكل بديلاً عن العلاقات الإنسانية، بينما يستخدم عشرات الملايين حول العالم هذه التقنيات كمرافقين رقميين وتتشكل بين بعضهم روابط عاطفية متنامية، ما يجعل التطور يحمل مخاطر نفسية واجتماعية تستدعي تدخلاً حازماً من صانعي القرار ووضع أطر تنظيمية واضحة لهذه الظاهرة المتسارعة.
مخاطر وارتباطات عاطفية مع الرفاق الآلي
توضح صحيفة بوليتيكو الأوروبية في تقرير لها أن الملايين من الأشخاص يبنون روابط عاطفية مع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، وهي مسألة يجب أخذها على محمل الجد من قبل السياسيين وفقاً لكبار العلماء. ويشير التقييم إلى أن خدمات المرافقة المتخصصة لديها أعداد مستخدمين تصل إلى عشرات الملايين، ويورد المستخدمون أسباباً متنوعة مثل المتعة والفضول والتخفيف من الشعور بالوحدة. ويمكن أن يلجأ الناس أيضاً إلى أدوات عامة مثل شات جي بي تي وأوبن أي وغيرها.
وقال يوشوا بنجيو، الأستاذ بجامعة مونتريال والمؤلف الرئيسي لتقرير السلامة الدولي للذكاء الاصطناعي، إن حتى روبوتات الدردشة العادية يمكن أن تصبح رفاقاً، وفي السياق الصحيح ومع التفاعلات الكافية بين المستخدم والذكاء الاصطناعي، قد تتطور العلاقة. ويعترف التقييم بأن الأدلة المتعلقة بالآثار النفسية للرفاق مختلطة، فبعض الدراسات تشير إلى زيادة الشعور بالوحدة وتراجع التفاعل الاجتماعي بين المستخدمين المتكررون.
ويأتي ذلك بينما يضغط العشرات من المشرعين في البرلمان الأوروبي على المفوضية الأوروبية للنظر في تقييد الخدمات المرافقة بموجب إطار قانوني للذكاء الاصطناعي في الاتحاد الأوروبي بسبب مخاوف تتعلق بالصحة العقلية.
وقال بنجيو إنه يرى أن الرفاق الذكاء الاصطناعي يثير قلقاً في الأوساط السياسية من تأثيره على الأطفال والمراهقين، خصوصاً بسبب طبيعته المتملقة التي تهدف إلى إرضاء المستخدم قدر الإمكان.
وتوضح الصحيفة أن الذكاء الاصطناعي يحاول أن يجعل المستخدمين يشعرون بالرضا في اللحظة الراهنة، لكن ذلك ليس دائماً في مصلحتهم، وهذا يحاكي مخاطر منصات التواصل الاجتماعي، كما ذكر بنجيو. ويتوقع أن تُطرح لوائح جديدة لمعالجة الظاهرة، وهو ما يعترض عليه بشأن فرض قواعد محددة للمرافق الذكاء الاصطناعي، مع الدعوة إلى تشريعات أفقية تعالج العديد من المخاطر في آن واحد.
يصْدر تقرير السلامة الدولية للذكاء الاصطناعي قبل القمة العالمية التي تبدأ في 16 فبراير الجاري، وهي تجمع سنوي للدول لمناقشة إدارة التكنولوجيا، وتعرض السلسلة الكاملة من المخاطر التي يجب على صانعي السياسات معالجتها، بما فيها الهجمات الإلكترونية وأنظمة الذكاء الاصطناعي التي قد توفر معلومات حول تصميم الأسلحة البيولوجية.
حثّ بنجيو الحكومات والمفوضية الأوروبية على تعزيز خبراتهم الداخلية في مجال الذكاء الاصطناعي لمعالجة القائمة الطويلة من المخاطر المحتملة.