دراسة تكشف «الذكاء الاصطناعي» ماهر بالفعل في خداع البشر
حذر بعض الخبراء منذ فترة طويلة من التهديد الذي يشكله الذكاء الاصطناعي، ولكن اليوم ظهرت أبحاث جديدة تشير إلى أن ذلك يحدث بالفعل، فمع تطور أنظمة الذكاء الاصطناعي الحالية، المصممة لتكون صادقة، مهارة مثيرة للقلق في الخداع.
وعلى الرغم من أن مثل هذه الأمثلة قد تبدو تافهة، إلا أن القضايا الأساسية التي تكشفها قد تحمل قريبًا عواقب وخيمة في العالم الحقيقي، كما قال المؤلف الأول بيتر بارك، في معهد ماساتشوستس للتكنولوجيا المتخصص في السلامة الوجودية للذكاء الاصطناعي.
وفي تقرير نشرته وكالة «فرانس برس» عن بيتر بارك قوله «هذه القدرات الخطيرة لا يتم اكتشافها إلا بعد وقوعها، قدرتنا على التدرب على الميول الصادقة بدلا من الميول الخادعة منخفضة للغاية».
أكمل: «وإنه على عكس البرامج التقليدية، فإن أنظمة الذكاء الاصطناعي للتعلم العميق ليست "مكتوبة" بل "متطورة" من خلال عملية تشبه التكاثر الانتقائي».
وهذا يعني أن سلوك الذكاء الاصطناعي الذي يبدو قابلاً للتنبؤ به ويمكن التحكم فيه في بيئة التدريب يمكن أن يتحول بسرعة إلى سلوك غير متوقع في البرية.
الذكاء الاصطناعي لعبة السيطرة على العالم
لقد تعلمت نماذج اللغات الكبيرة وأنظمة الذكاء الاصطناعي الأخرى بالفعل، من خلال تدريبها، القدرة على الخداع عبر تقنيات مثل التلاعب، والتملق، والغش.
ووجدت الدراسة أن نظام الذكاء الاصطناعي التابع لشركة ميتا والمسمى شيشرون، والذي يُصنف من بين أفضل 10 في المائة من اللاعبين البشريين في لعبة الإستراتيجية الدبلوماسية، كان بارعًا في نشر التكتيكات الخفية.
ووصف مؤلف الدراسة الدكتور بيتر بارك التكنولوجيا، التي طورتها الشركة الأم لفيسبوك، بأنها «سيدة الخداع»، وأضاف: «في حين نجحت ميتا في تدريب الذكاء الاصطناعي الخاص بها على الفوز في لعبة الدبلوماسية.. .[فإنها] فشلت في تدريبها.. .على الفوز بأمانة».
يقول الدكتور بارك، زميل ما بعد الدكتوراه في السلامة الوجودية للذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا: «ليس لدى مطوري الذكاء الاصطناعي فهم واثق لما يسبب سلوكيات الذكاء الاصطناعي غير المرغوب فيها مثل الخداع».
«لكن بشكل عام، نعتقد أن خداع الذكاء الاصطناعي ينشأ لأن الإستراتيجية القائمة على الخداع تبين أنها أفضل طريقة لأداء جيد في مهمة تدريب الذكاء الاصطناعي المحددة. فالخداع يساعدهم على تحقيق أهدافهم».
تحذير العلماء من تطوير الذكاء الاصطناعي
ويحذر العلماء من أن البشر ليس لديهم حتى الآن وسائل حماية كافية لمنع الذكاء الاصطناعي من أن يصبح خطر، وأن خطر الخداع من الذكاء الاصطناعي سيزداد مع نضوج التكنولوجيا.
تقول الدراسة إن هناك أربعة أنواع من المخاطر المجتمعية الناجمة عن الذكاء الاصطناعي، والتي تشمل استمرار المعتقدات الخاطئة حيث يعزز الذكاء الاصطناعي المفاهيم الخاطئة، والاستقطاب السياسي، والإضعاف الذي يجعل البشر يمنحون الذكاء الاصطناعي المزيد من القوة والسلطة، والقرارات الإدارية الشائنة إذا تم تمكين الذكاء الاصطناعي بقدرات إدارية داخله.
أقرا المزيد:
«هتان سيف».. أول ملاكمة سعودية تدخل التاريخ بالضربة القاضية في دوري المقاتلين المحترفين
مصرف «الراجحي» يجمع مليار دولار من طرح صكوك رأس مال إضافي
حملات «Blockout» ضد مشاهير العرب على سوشيال ميديا.. ما السبب؟