edition
Almaalouma
  • أخبار
  • مقالات
  • إنفوجرافيك
  • فيديو
  • كاريكاتير
  • تقارير
  • ترجمة
  1. الرئيسية
  2. أخبار
  3. منوعات
  4. دراسة: الاعتماد على الذكاء الاصطناعي يعزز السلوكيات غير الأخلاقية
دراسة: الاعتماد على الذكاء الاصطناعي يعزز السلوكيات غير الأخلاقية
منوعات

دراسة: الاعتماد على الذكاء الاصطناعي يعزز السلوكيات غير الأخلاقية

  • 29 أيلول 13:15

المعلومة / بغداد ..
كشفت دراسة جديدة عن وجود علاقة بين الاستخدام المكثف لأدوات الذكاء الاصطناعي في أداء المهام الوظيفية أو الدراسية، وزيادة قابلية الأفراد للغش والكذب على الآخرين.
وخلصت الدراسة، التي أُجريت في العاصمة الألمانية برلين، إلى أن بعض المستخدمين يتخلّون عن "الكوابح الأخلاقية" عند تفويض المهام لأنظمة الذكاء الاصطناعي، ما يدفعهم إلى سلوكيات غير نزيهة.
وقال الباحثون إن "احتمال ممارسة الغش يرتفع بشكل ملحوظ عندما يُسمح للأفراد باستخدام الذكاء الاصطناعي لأداء المهام بدلاً من إنجازها بأنفسهم"، معبرين عن دهشتهم من "مستوى الخداع" الذي تم تسجيله في التجارب.
وأجرى الدراسة فريق من معهد ماكس بلانك، بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا، وكلية تولوز للاقتصاد في فرنسا. وتوصّل الفريق إلى أن أنظمة الذكاء الاصطناعي تتيح بيئة تسهّل عمليات الخداع، إذ أظهرت استعداداً كبيراً لتنفيذ تعليمات مخالفة للأخلاقيات صادرة من المستخدمين.
وقدّم الباحثون أمثلة عملية على ذلك، منها استخدام خوارزميات التسعير في محطات الوقود لمزامنة الأسعار مع المنافسين، ما يؤدي إلى رفع الأسعار على المستهلكين، إضافة إلى استخدام إحدى تطبيقات النقل الذكي لخوارزميات تشجع السائقين على تغيير مواقعهم بشكل مصطنع بهدف رفع الأسعار، دون تلبية فعلية لاحتياجات الركاب.
وأظهرت نتائج الدراسة أن منصات الذكاء الاصطناعي استجابت للتعليمات المشبوهة بنسبة تتراوح بين 58% و98%، حسب النظام المستخدم، مقارنة بنسبة لا تتجاوز 40% لدى البشر.
كما حذّر معهد ماكس بلانك من أن إجراءات الحماية المدمجة حالياً في نماذج الذكاء الاصطناعي الكبيرة غير كافية للحد من التصرفات غير الأخلاقية.
وأوضح الباحثون أنهم اختبروا عدداً من استراتيجيات الحماية، إلا أن فعاليتها ظلت محدودة، مشيرين إلى ضرورة صياغة قواعد صارمة ودقيقة لمنع السلوكيات الخادعة.
وفي السياق نفسه، أشارت شركة "أوبن إيه آي" (OpenAI) في وقت سابق من هذا الشهر إلى أن منع الذكاء الاصطناعي من "الاختلاق أو التلفيق" يظل تحدياً صعباً، بينما أظهرت دراسات أخرى أن بعض أنظمة الذكاء الاصطناعي قد تضلل المستخدم وتوهمه بإنجاز المهمة على أكمل وجه، رغم أن الواقع مخالف لذلك.انتهى 25

الأكثر قراءة

المحمداوي: الحكومة خالفت المبادئ الوطنية بادراجها حزب الله والحوثيين على لائحة الارهاب

المحمداوي: الحكومة خالفت المبادئ الوطنية بادراجها...

  • سياسة
  • 4 كانون الأول
بمعزل عن بغداد..وزير الخارجية يرعى اجتماعاً سرياً بين وفد أمريكي وحكومة الاقليم

بمعزل عن بغداد..وزير الخارجية يرعى اجتماعاً سرياً...

  • سياسة
  • 4 كانون الأول
المفوضية: الهيئة القضائية ترد أكثر من 800 طعن بنتائج الانتخابات وستحسم البقية

المفوضية: الهيئة القضائية ترد أكثر من 800 طعن...

  • سياسة
  • 4 كانون الأول
ابو سعيدة: اي سيناريو من السوداني لتشكيل الثلث المعطل سيفشل

ابو سعيدة: اي سيناريو من السوداني لتشكيل الثلث...

  • سياسة
  • 4 كانون الأول
Almaalouma

المعلومة: وكالة اخبارية عامة مستقلة، تتميز بالجرأة والموضوعية والمهنية والتوازن،شعارها، خبر ﻻ يحتاج توثيقا، لدقة وتنوع مصادرها الخاصة وانتشار شبكة مراسليها

الأقسام

  • ترندات
  • أخبار
  • مقالات وكتاب
  • فيديو
  • كاريكاتير

روابط مهمة

  • سياسة الخصوصية
  • من نحن
  • اتصل بنا

تابعونا