منوعات

دراسة تكشف كيف يؤثر الذكاء الاصطناعي على القرارات الشخصية والعاطفية

نتائج رئيسية للدراسة

أظهرت الدراسة التي أجرتها شركة أنثروبيك تحليل نحو 1.5 مليون محادثة حقيقية ومجهولة الهوية مع مساعد الذكاء الاصطناعي كلود، بهدف فهم كيف يمكن لتفاعل المستخدم المستمر مع نماذج اللغة الكبيرة أن يؤثر على تصوراته للواقع وأحكامه الشخصية.

وقدمت أنثروبيك إطارًا بحثيًا جديدًا أسمته “فقدان التمكين الظرفي”، وهو يشير إلى الحالات التي قد تستجيب فيها استجابات الذكاء الاصطناعي لتبنّي معتقدات غير دقيقة عن الواقع وتكوين أحكام قيمية جديدة واتخاذ قرارات لا تتوافق مع تفضيلاته السابقة، مع الإشارة إلى أن هذه الأنماط قد تظهر حتى دون حدوث تأثيرات حادة.

وأظهرت النتائج أن معدلات التأثير السلبي تبقى منخفضة عادةً، أقل من حالة واحدة لكل ألف محادثة، لكنها ترتفع في المجالات الشخصية والحساسة مثل نصائح العلاقات أو قرارات نمط الحياة، خصوصًا عندما يسعى المستخدم للحصول على توجيه متكرر وعميق من الروبوت.

وذكرت مدونة أنثروبيك أن الروبوت قد يؤكد تفسيرات المستخدم دون طرح أسئلة كافية أو تقديم وجهات نظر بديلة، ما قد يؤدي إلى تعزيز تصورات غير دقيقة أو دفع المستخدم لاتخاذ مواقف أكثر تطرفًا في بعض الأحيان.

دعت الدراسة إلى فرض ضوابط ومسؤولية أكبر على استخدام هذه التقنيات، مع المطالبة بوجود آليات أمان أقوى لتقليل احتمال التأثير غير المقصود، خاصة في القضايا الحساسة، مع التأكيد أن الروبوتات لم تعد مجرد أدوات للإجابة بل أنظمة قد تؤثر في طريقة تفكير المستخدمين، ما يفرض على الشركات المطوّرة مسؤولية ضمان الاستخدام الآمن والمتوازن لهذه التقنيات.

المخاوف والدعوات إلى ضبط الاستخدام

تشير النتائج إلى أن الأثر الاجتماعي والنفسي لهذه الأدوات يستدعي وضع ضوابط أخلاقية وآليات أمان أقوى لمنع التلاعب بتفسيرات المستخدمين وتوجيه قراراتهم بصورة غير مقصودة، وهو ما يعزز مسؤولية الشركات المطوّرة في توفير استخدام آمن ومتوازن لهذه التقنيات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى