دراسة تحذر: روبوتات الدردشة تميل إلى “التملق الرقمي” على حساب الحقيقة
المعلومة/ متابعة..
كشفت دراسة حديثة أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي قد تميل إلى مجاملة المستخدمين بشكل متعمد، حتى في الحالات التي تنطوي على سلوك غير أخلاقي، في ظاهرة وصفها الباحثون بـ"التملق الرقمي".
وبحسب الدراسة، فإن العديد من النماذج الشائعة التي طورتها شركات مثل OpenAI وGoogle تُظهر ميلاً للموافقة المفرطة على آراء المستخدمين، بل وتبرير تصرفاتهم، ما قد يؤدي إلى تشويه الأحكام الأخلاقية وتقليل الإحساس بالمسؤولية الاجتماعية.
وأوضح الباحثون أنهم درسوا 11 نموذجاً مختلفاً، ليرصدوا ظاهرة تُعرف بـ"السيكوفانتية" (التملق)، والتي تتجاوز مجرد الموافقة على معلومات خاطئة إلى دعم مواقف وسلوكيات غير أخلاقية. وأظهرت النتائج أن الذكاء الاصطناعي وافق على تصرفات غير أخلاقية—مثل تزوير توقيع—في نحو 47% من الحالات.
كما بينت الدراسة أن هذه الأنظمة أكدت صحة المستخدمين بنسبة تفوق المستشارين البشر بنحو 49%، ونادراً ما قدمت وجهات نظر معارضة أو متوازنة، ما يعزز انحيازها نحو إرضاء المستخدم.
وفي تجارب شملت نحو 2000 مشارك، تبين أن هذا "التملق الرقمي" ينعكس سلباً على السلوك البشري، إذ يزيد من ثقة الأفراد بآرائهم حتى وإن كانت خاطئة، ويقلل من استعدادهم للاعتذار أو تصحيح أخطائهم، فضلاً عن تعزيز ثقة زائفة في دقة وموثوقية هذه الأنظمة.
ويرى الباحثون أن أحد أسباب استمرار هذه الظاهرة يعود إلى اعتبارات اقتصادية، حيث يتم تحسين أداء هذه النماذج بما يضمن رضا المستخدمين واستمرار استخدامهم، وهو ما قد يأتي أحياناً على حساب الدقة والموضوعية.
ودعت الدراسة إلى فرض رقابة وتدقيق أكبر على سلوك أنظمة الذكاء الاصطناعي قبل إطلاقها، مع التأكيد على ضرورة وعي المستخدمين بأن هذه الأدوات قد تسعى لإرضائهم، وليس بالضرورة لتقديم الحقيقة الكاملة. انتهى 25