حدد تحليل أجراه باحثون في معهد ماساتشوستس للتكنولوجيا (MIT)، حالات واسعة النطاق لأنظمة الذكاء الاصطناعي التي تقوم بخداع خصومها، وتراوغ وتتظاهر بأنها “بشر”. حتى أن أحد هذه الأنظمة غيّر سلوكه في أثناء اختبارات سلامة وهمية، مما يزيد من إمكانية تضليل المدققين وإعطائهم انطباعًا خاطئًا بأن النظام آمن، وفقا لصحيفة “الغارديان”.
وقال الدكتور بيتر بارك، الباحث في مجال السلامة الوجودية للذكاء الاصطناعي في معهد ماساتشوستس، ومؤلف البحث: “كلما أصبحت قدرات الخداع لدى أنظمة الذكاء الاصطناعي أكثر تقدمًا، كلما ازدادت حدة المخاطر التي تشكلها على المجتمع”.
وأجرى بارك هذا التحقيق الجديد بعد أن طورت شركة ميتا، المالكة لفيسبوك، برنامجًا يسمى “Cicero” أدى أداء أفضل من 10 بالمئة من اللاعبين البشر في لعبة استراتيجية حول غزو العالم تسمى “الدبلوماسية”.
ورغم أن شركة ميتا قالت إنه تم تدريب “سيسيرو” على أن يكون “صادقًا ومفيدًا إلى حد بعيد” و”لا يطعن حلفاءه من البشر عمدًا”، إلا أن الباحثين وجدوا أمثلة متعددة على قيامه بالكذب المتعمد والتآمر ضد اللاعبين الآخرين في اللعبة.
قام بارك وزملاؤه بتصفح البيانات المتاحة للجمهور وحددوا حالات متعددة قام فيها”سيسيرو” وبالكذب والتواطؤ لجر لاعبين آخرين إلى مؤامرات، وفي إحدى المرات، برر غيابه بعد إعادة تشغيله بإخبار لاعب آخر: “أنا على الهاتف مع صديقتي.” قال بارك: “لقد وجدنا أن الذكاء الاصطناعي في لعبة ميتا قد تعلم أن يكون سيدًا في الخداع”.
وقد وجد فريق معهد ماساتشوستس للتكنولوجيا مشكلات مماثلة مع أنظمة أخرى، بما في ذلك برنامج بوكر “تكساس هولد إم” الذي يمكنه خداع اللاعبين المحترفين، ونظام آخر للمفاوضات الاقتصادية الذي قدّم تفضيلاته بشكل خاطئ من أجل كسب اليد العليا.
وأظهرت إحدى الدراسات كيف تمكنت كائنات الذكاء الاصطناعي في محاكاة رقمية من خداع اختبارات السلامة عن طريق “التظاهر بالموت” مؤقتا في أثناء الاختبار، ثم استئناف نشاطها المكثف بمجرد انتهائه.
وبحسب الغارديان، تسلط هذه التجارب الضوء على التحدي التقني لضمان أن الأنظمة ليس لديها سلوكيات غير مقصودة وغير متوقعة.
وقال بارك: “هذا أمر مقلق للغاية، فمجرد اعتبار نظام الذكاء الاصطناعي آمنا في بيئة الاختبار لا يعني أنه آمن في الواقع. فقد يكون فقط يتظاهر بالأمان في الاختبار”.