الذكاء الاصطناعي .. والمخاطر المتوقعة
كتب / شاكر عبد موسى الساعدي
المقدمة : الذكاء الاصطناعي (Artificial Intelligence) هو مجال من مجالات العلوم الحاسوبية الذي يعنى بتطوير أجهزة وأنظمة تكنولوجية قادرة على محاكاة قدرات العقل البشري في إتمام المهام واكتساب المعرفة واتخاذ القرارات, ويعد الذكاء الاصطناعي تطبيقاً متقدماً لتقنيات الحوسبة والتعلم الآلي لإنشاء برامج وأنظمة تكنولوجية تتعلم وتتكيف بشكل ذاتي لتحقيق أهداف معينة.
مع انتشار استخدام التكنولوجيا والتقدم السريع في مجال الذكاء الاصطناعي، تبدأ بعض المخاوف في الظهور حول المخاطر المتوقعة التي يمكن أن يثيرها تطور الذكاء الاصطناعي. ومن المهم استكشاف هذه المخاطر والبحث في كيفية التعامل معها والحد منها.
أولاً : : جوجل والانتخابات
أعلنت شركة جوجل أنها ستمنع بوت الدردشة “جيميناي” من الإجابة على أسئلة المستخدمين المتعلقة بالانتخابات في الدول التي تُجرى فيها انتخابات خلال الفترة القادمة, وثمة مخاوف بالغة بشأن المعلومات الخاطئة المتعلقة بالانتخابات التي يمكن أن يقدمها الذكاء الاصطناعي مع توجه الناخبين في أكثر من 60 دولة إلى صناديق الاقتراع عام / 2024.
وأشار جوجل إلى هذا الأمر في منشور على مدونتها يوضح كيفية تعاملها مع الانتخابات العامة التي ستُجرى في الهند هذا الربيع, وأكدت الشركة أن هذه القيود ستُطبق في جميع الدول الكبرى خلال الانتخابات المقبلة, وسيتلقى مستخدمي “جيميناي” الذين يطرحون أسئلة متعلقة بالانتخابات الرد التالي: “ما زلت أتعلم كيفية الإجابة على هذا السؤال”.
ثانياُ : مخاطر كارثية للذكاء الاصطناعي
حذّر تقرير جديد صدر بتكليف من وزارة الخارجية الأميركية من مخاطر الذكاء الاصطناعي على الأمن القومي ووصفها بالكارثية، مشيراً إلى أن الوقت ينفد أمام الحكومة الفيدرالية الأميركية لتجنب الكارثة.
واستندت نتائج التقرير إلى مقابلات مع أكثر من 200 شخص على مدار أكثر من عام، بما في ذلك كبار المسؤولين التنفيذيين في شركات الذكاء الاصطناعي الرائدة، وباحثون في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولو الأمن القومي في الولايات المتحدة.
ويشير التقرير، الذي أصدرته شركة “غلادستون إيه آي”، هذا ، بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدماً قد تشكل تهديداً على الجنس البشري، وفي أسوأ الحالات قد تؤدي إلى انقراضه.
وقال مسؤول بوزارة الخارجية الأميركية لشبكة “سي إن إن” إن إعداد التقرير يأتي في ضوء حرص السلطات الأميركية على تقييم مدى توافق الذكاء الاصطناعي مع حماية المصالح الأميركية في الداخل والخارج، ومع ذلك أكد المسؤول أن التقرير لا يمثل آراء الحكومة الأميركية.
إذا قام القادة العسكريون البشر بتعيين الروبوتات كمسؤول عن أنظمة الأسلحة، فربما تطلق صاروخاً نووياً, تقول تلك التقارير أيضاً : أن الذكاء الاصطناعي غير مضمون في الوقت الحالي لدرجة أننا نخاطر بنتائج كارثية إذا استفادت قوى تهز العالم مثل القوات الجوية للولايات المتحدة من الذكاء الاصطناعي المستقل دون فهم حدود ذلك.
الورقة الجديدة المطروحة بعنوان “مخاطر التصعيد من النماذج اللغوية في صنع القرار العسكري والدبلوماسي”، لا تزال في مرحلة ما قبل الطباعة وتنتظر مراجعة الأقران, لكن مؤلفيها من معهد جورجيا للتكنولوجيا وجامعة ستانفورد وجامعة نورث إيسترن ومبادرة هوفر لألعاب الحرب ومحاكاة الأزمات، وجدوا أن معظم نماذج الذكاء الاصطناعي ستختار شن ضربة نووية عندما تُمنح لها صلاحية ذلك.
كما تدرس الولايات المتحدة فرض عقوبات على العديد من شركات التكنولوجيا الصينية، بما في ذلك شركة تصنيع الرقائق تشانغشين ميموري تكنولوجيز (ChangXin Memory Technologies)، في محاولة لزيادة تقييد تطوير الصين لأشباه الموصلات المتقدمة.
ونقلت وكالة بلومبرغ عن أشخاص مطلعين على الأمر قولهم : إن مكتب الصناعة والأمن بوزارة التجارة الأميركية يدرس إضافة شركة “تشانغشين” إلى ما يسمى بقائمة الكيانات التي تقيد الوصول إلى التقنيات الأميركية، إلى جانب خمس شركات صينية أخرى.
كما كثفت إدارة الرئيس الأميركي (جو بايدن) حملتها التي تهدف لمنع وصول التقنيات المرتبطة بالذكاء الاصطناعي إلى الصين.. وتوجيه هيئة محلفين أميركية الاتهام إلى مهندس برمجيات سابق في شركة جوجل بتهمة سرقة أسرار تجارية تتعلق بالذكاء الاصطناعي من الشركة، لصالح شركتين صينيتين كان يعمل فيهما سراً.
ثالثاُ : الأستنتاجات
تتضمن المخاطر المتوقعة للذكاء الاصطناعي ما يلي:
* فقدان وظائف العمل : يمكن أن يؤدي تبني التكنولوجيا الذكية في المؤسسات والشركات إلى فقدان الكثير من فرص العمل التقليدية وزيادة معدلات البطالة.
* انعدام الخصوصية : يمكن لتقنيات الذكاء الاصطناعي جمع وتحليل كميات هائلة من البيانات الشخصية، مما يمثل تهديداً للخصوصية والأمان السيبراني.
* توجيه الأخطاء الخطيرة : يمكن لأنظمة الذكاء الاصطناعي أن ترتكب أخطاء خطيرة إذا لم تكن مبرمجة بشكل صحيح أو إذا تعرضت لهجمات إلكترونية.
* التحكم الذاتي : قد يؤدي تطور الذكاء الاصطناعي إلى فقدان السيطرة على الأنظمة الذكية، مما يمكن أن يؤدي إلى تبعات غير متوقعة.
* التمييز والعنصرية : قد تنعكس تحيزات وتمييزات البشر في برامج الذكاء الاصطناعي، مما يمكن أن يزيد من التفاوت والظلم في المجتمع.