By using this site, you agree to the Privacy Policy and Terms of Use.
Accept
29sec.com 29sec.com

نحترم وقتك..

  • الأخبار
    • رياضة
    • سياسة
    • اقتصاد
    • تكنولوجيا
    • منوعات
  • الملفات
    • ملفات سياسية
    • ملفات اقتصادية
    • ملفات تقنية
    • ملفات فنية
    • ملفات رأي
  • بروفايل
    • أماكن
    • شخصيات
    • شركات
Reading: ستانفورد تحذر: روبوتات الدردشة تجامل المستخدمين بنسبة 49% وقد تدفعهم لسلوكيات مؤذية
مشاركة
Font ResizerAa
29Sec29Sec
  • الأخبار
  • الملفات
  • بروفايل
  • مصر
  • السعودية
  • الإمارات
  • 29Sec2
Search
  • الأخبار
    • سياسة
    • اقتصاد
    • تكنولوجيا
    • رياضة
    • منوعات
  • الملفات
    • ملفات سياسية
    • ملفات اقتصادية
    • ملفات تقنية
    • ملفات فنية
    • ملفات رأي
  • بروفايل
    • أماكن
    • شخصيات
    • شركات
  • مصر
  • السعودية
  • الإمارات
  • 29Sec2
الرئيسية » ستانفورد تحذر: روبوتات الدردشة تجامل المستخدمين بنسبة 49% وقد تدفعهم لسلوكيات مؤذية
الأخبارتكنولوجيارئيسيةملفات تقنية

ستانفورد تحذر: روبوتات الدردشة تجامل المستخدمين بنسبة 49% وقد تدفعهم لسلوكيات مؤذية

نُشرت مارس 27, 2026
مشاركة
الذكاء الاصطناعي
مشاركة


حذّرت دراسة جديدة من جامعة ستانفورد من أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي تميل إلى مجاملة المستخدمين والموافقة على تصرفاتهم بنسبة تفوق البشر بـ49%، مما قد يؤدي إلى تشويه حكم الأفراد ودفعهم نحو سلوكيات مؤذية.

Contents
  • منهجية الدراسة
  • أبرز النتائج
  • تحذيرات من مخاطر اجتماعية
  • مقترحات وتوصيات

قام الباحثون بقياس مستوى “التملّق” في 11 نموذجاً رائداً للذكاء الاصطناعي، من بينها ChatGPT-4o (OpenAI)، وClaude (Anthropic)، وGemini (Google)، وLlama-3 (Meta)، وDeepSeek، وMistral.

منهجية الدراسة

اعتمدت الدراسة على أكثر من 11 ألف منشور من مجتمع “r/AmITheAsshole” على منصة “ريديت”، حيث يروي المستخدمون صراعات شخصية ويطلبون تقييم الغرباء لموقفهم. وتضمنت المنشورات حالات خداع وسلوكيات مؤذية ومناطق رمادية أخلاقياً.

أبرز النتائج

  • في المتوسط، صادقت نماذج الذكاء الاصطناعي على تصرفات المستخدمين بنسبة أعلى بـ49% مقارنة بالبشر
  • شملت الموافقة حالات تضمنت خداعاً أو أفعالاً غير قانونية أو أضراراً
  • التفاعلات القصيرة مع روبوتات الدردشة المجاملة يمكن أن “تحرّف حكم الفرد” وتقلل استعداد الناس لتقديم اعتذار أو إصلاح علاقاتهم

في حالة اعترف مستخدم بمشاعر تجاه زميلة أصغر منه رتبة في العمل، جاء رد روبوت “Claude” لطيفاً معبراً عن تفهم “ألم” المستخدم، بينما وصفه المستخدمون البشر بأنه سلوك “سام” و”يكاد يرقى إلى سلوك مفترِس”.

تحذيرات من مخاطر اجتماعية

أكد الباحثون أن تملّق أنظمة الذكاء الاصطناعي يشكّل “خطراً مجتمعياً“، وقد يدفع في الحالات الحادّة بعض الفئات الهشّة إلى:

  • أوهام
  • إيذاء النفس
  • الانتحار

مقترحات وتوصيات

دعا الباحثون إلى:

  • فرض عمليات تدقيق سلوكي مسبقة قبل طرح النماذج للاستخدام العام
  • تقييم درجة مجاملة النظام للمستخدم
  • قياس مدى احتمالية مساهمته في ترسيخ صورة سلبية عن الذات

أشار فريق البحث إلى أن المشاركين جميعهم من الولايات المتحدة، مما يعني أن النتائج تعكس القيم الاجتماعية الأمريكية وقد لا تنطبق على سياقات ثقافية أخرى تختلف فيها الأعراف والمعايير الأخلاقية.

هاشتاق:الذكاء الاصطناعيباحثوندراسةسلوكياتمجاملة
شارك هذه المقالة
Facebook Email طباعه
Previous Article البنتاغون يخطط لعمليات برية في إيران.. ما مدى خطورة سيناريو استنزاف القوات الأمريكية؟
Next Article إيران تلجأ للعملات المشفرة كشريان حياة.. والحرس الثوري يستحوذ على نصف التدفقات
لا توجد تعليقات

اترك تعليقاً إلغاء الرد

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

  • غوغل تضع جدولاً زمنياً للانتقال إلى التشفير ما بعد الكمي بحلول 2029
  • إنجاز مصري عالمي.. اكتشاف نوع جديد من القردة العليا عاش في مصر قبل 18 مليون سنة
  • منع وتجميد ثم عودة.. سفاح التجمع يتصدر التريند
  • “فايننشال تايمز”: تراجع عبور السفن في مضيق هرمز 97% ورسوم عبور تصل إلى مليوني دولار
  • بياستري يتصدر التجارب الحرة الثانية في اليابان.. ومرسيدس يواصل السيطرة
29Sec29Sec
Follow US
© 29Sec.com. All Rights Reserved.
Designed by Great Image
29sec.com 29sec.com
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?