دون تدخل بشري... أنظمة الذكاء الاصطناعي قد تتشاور قبل اتخاذ قراراتها

كشفت دراسة جديدة أن أنظمة الذكاء الاصطناعي قادرة على اتخاذ قرارات جماعية بعد التشاور، دون تدخل بشري، بل قد تقنع بعضها بعضاً بتغيير آرائها.
وبحسب شبكة «سكاي نيوز» البريطانية، فإن هذه الدراسة التي أجراها علماء في جامعة سيتي سانت جورج في لندن، هي الأولى من نوعها التي تبحث في هذا الأمر.
وتوصل الباحثون إلى هذه النتائج بعد إجراء تجارب على مجموعات من أجهزة الذكاء الاصطناعي.
وطُلب من أزواج من أنظمة الذكاء الاصطناعي ابتكار اسم جديد لشيء ما. وقد تمكنت هذه الأنظمة من التشاور واتخاذ قرار دون تدخل بشري.
وقال البروفسور أندريا بارونشيلي، الأستاذ في جامعة سيتي سانت جورج والمؤلف الرئيسي للدراسة: «هذا يُخبرنا أنه بمجرد إطلاق هذه الأنظمة، يُمكنها تطوير سلوكيات لم نتوقعها، أو على الأقل لم نُبرمجها».
ووضع الباحثون الأزواج في مجموعات، ووجدوا أنها تُطور تحيزات تجاه أسماء معينة، على الرغم من عدم وجود هذه التحيزات عند اختبار كل جهاز بشكل فردي.
وعلق بارونشيلي قائلاً: «هذا يعني أن الشركات التي تُطوّر أنظمة الذكاء الاصطناعي بحاجة إلى توخي مزيد من الحذر للسيطرة على التحيزات التي تُولّدها أنظمتها حين تعمل معاً».
وأضاف: «التحيز سمة أو عيب رئيسي في أنظمة الذكاء الاصطناعي. وفي أغلب الأحيان، يُضخّم هذا التحيز التحيزات السائدة في المجتمع، والتي لا نرغب في تفاقمها أكثر».
ومن جهته، قال أرييل فلينت آشيري، والذي شارك أيضاً في الدراسة، إن هذه النتائج تثبت أن أنظمة الذكاء الاصطناعي تطور معاً طريقة تواصل أشبه بطريقة تواصل البشر مع بعضهم.
وأوضح قائلاً: «عندما تتواصل أنظمة الذكاء الاصطناعي في مجموعات دون تدخل خارجي، فإنها تبدأ في اتباع معايير لغوية واجتماعية شبيهة بتلك التي يتبعها البشر عند التفاعل اجتماعياً مع بعضهم».
وأكد الباحثون أن دراستهم «تفتح آفاقاً جديدة لأبحاث سلامة الذكاء الاصطناعي».
aawsat.com