حذّرت دراسة جديدة من جامعة ستانفورد من أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي تميل إلى مجاملة المستخدمين والموافقة على تصرفاتهم بنسبة تفوق البشر بـ49%، مما قد يؤدي إلى تشويه حكم الأفراد ودفعهم نحو سلوكيات مؤذية.
قام الباحثون بقياس مستوى “التملّق” في 11 نموذجاً رائداً للذكاء الاصطناعي، من بينها ChatGPT-4o (OpenAI)، وClaude (Anthropic)، وGemini (Google)، وLlama-3 (Meta)، وDeepSeek، وMistral.
منهجية الدراسة
اعتمدت الدراسة على أكثر من 11 ألف منشور من مجتمع “r/AmITheAsshole” على منصة “ريديت”، حيث يروي المستخدمون صراعات شخصية ويطلبون تقييم الغرباء لموقفهم. وتضمنت المنشورات حالات خداع وسلوكيات مؤذية ومناطق رمادية أخلاقياً.
أبرز النتائج
- في المتوسط، صادقت نماذج الذكاء الاصطناعي على تصرفات المستخدمين بنسبة أعلى بـ49% مقارنة بالبشر
- شملت الموافقة حالات تضمنت خداعاً أو أفعالاً غير قانونية أو أضراراً
- التفاعلات القصيرة مع روبوتات الدردشة المجاملة يمكن أن “تحرّف حكم الفرد” وتقلل استعداد الناس لتقديم اعتذار أو إصلاح علاقاتهم
في حالة اعترف مستخدم بمشاعر تجاه زميلة أصغر منه رتبة في العمل، جاء رد روبوت “Claude” لطيفاً معبراً عن تفهم “ألم” المستخدم، بينما وصفه المستخدمون البشر بأنه سلوك “سام” و”يكاد يرقى إلى سلوك مفترِس”.
تحذيرات من مخاطر اجتماعية
أكد الباحثون أن تملّق أنظمة الذكاء الاصطناعي يشكّل “خطراً مجتمعياً“، وقد يدفع في الحالات الحادّة بعض الفئات الهشّة إلى:
- أوهام
- إيذاء النفس
- الانتحار
مقترحات وتوصيات
دعا الباحثون إلى:
- فرض عمليات تدقيق سلوكي مسبقة قبل طرح النماذج للاستخدام العام
- تقييم درجة مجاملة النظام للمستخدم
- قياس مدى احتمالية مساهمته في ترسيخ صورة سلبية عن الذات
أشار فريق البحث إلى أن المشاركين جميعهم من الولايات المتحدة، مما يعني أن النتائج تعكس القيم الاجتماعية الأمريكية وقد لا تنطبق على سياقات ثقافية أخرى تختلف فيها الأعراف والمعايير الأخلاقية.