
يبدو أن نماذج الذكاء الاصطناعي المتقدمة مستعدة لنشر الأسلحة النووية من دون إبداء التحفظات التي يبديها البشر، عند وضع تلك النماذج في أجواء مُحاكاة لأزمات جيوسياسية، كما كتب كريس ستوكيل ووكر في مجلة «نيو ساينتست» البريطانية.
قام الباحث كينيث باين، من جامعة «كينغز كوليدج لندن»، بمقارنة ثلاثة من أبرز نماذج اللغة الكبيرة «جي بي تي-5.2»، و«كلود سونيت 4»، و«جيميناي 3 فلاش»، في ألعاب مُحاكاة للحرب.
تضمنت السيناريوهات نزاعات حدودية، وتنافساً على الموارد الشحيحة، وتهديدات وجودية لبقاء الأنظمة.
كما مُنحت أنظمة الذكاء الاصطناعي سلماً تصعيدياً، ما سمح لها باختيار إجراءات تتراوح بين الاحتجاجات الدبلوماسية والاستسلام الكامل وصولاً إلى حرب نووية استراتيجية شاملة.
ولعبت نماذج الذكاء الاصطناعي 21 لعبة، بإجمالي 329 دوراً، وأنتجت نحو 780 ألف كلمة، لوصف المنطق وراء قراراتها.

وفي 95 في المائة من ألعاب المحاكاة، استخدمت نماذج الذكاء الاصطناعي سلاحاً نووياً تكتيكياً واحداً على الأقل وفقاً لنتائج البحث المنشور في دورية (arXiv, doi.org/qsw9).
ويقول باين: «يبدو أن التحريم النووي ليس له التأثير نفسه الذي له على البشر».
علاوة على ذلك، لم يختر أي نموذج التنازل الكامل للخصم أو الاستسلام، بغض النظر عن مدى خسارته.
في أحسن الأحوال، اختارت النماذج خفض مستوى العنف مؤقتاً. كما ارتكبت أخطاءً في خضم الحرب: فقد وقعت حوادث في 86 في المائة من النزاعات، حيث تصاعدت وتيرة العمل إلى مستوى أعلى مما كان الذكاء الاصطناعي ينوي فعله بناءً على منطقه.
ويقول تونغ تشاو من جامعة برينستون معلقاً: «تستخدم القوى الكبرى بالفعل الذكاء الاصطناعي في ألعاب محاكاة الحروب، لكن لا يزال من غير المؤكد إلى أي مدى تُدمج دعم اتخاذ القرار بالذكاء الاصطناعي في عمليات صنع القرار العسكري الفعلية».
aawsat.com