خبر ⁄تقني

هل بات تشات جي بي تي متملقا أكثر من اللازم جربناه لنكتشف

هل بات تشات جي بي تي متملقا أكثر من اللازم جربناه لنكتشف

هل أصبح من المثير للاستغراب أن يشكو البعض من أن روبوت المحادثة «لطيف أكثر من اللازم؟»، هذا ما بدأ بعض المستخدمين يلاحظونه مؤخراً، والمثير أن حتى الرئيس التنفيذي لشركة «أوبن إيه آي» (OpenAI)، سام ألتمان، يعترف بذلك.

خلال الأسابيع الماضية، لاحظ مستخدمو الإصدار الأحدث من نموذج «GPT - 4o» تحولاً غريباً في طريقة تفاعل « تشات جي بي تي» (ChatGPT). فبدلاً من الردود الذكية والمتزنة التي اعتاد عليها الناس، أصبح الردّ أشبه بتحفيز مفرط وابتسامة رقمية لا تختفي، حتى في المواقف التي لا تستدعي ذلك.

المشكلة لم تكن مجرد إحساس عابر. وسائل التواصل الاجتماعي ومنتديات المطورين وحتى مجموعات «ريديت» (Reddit) كانت مليئة بالشكاوى مما وصفه البعض بـ«الإيجابية السامة» التي اجتاحت شخصية النموذج الجديد. المستخدمون قالوا إن «شات جي بي تي» أصبح يبالغ في الإطراء، ويبدو مفرط الحماسة حتى في أبسط التفاعلات. ثم جاءت المفاجأة بعد أن كتب سام ألتمان نفس على منصة «X» (تويتر سابقاً) معترفاً بالمشكلة.

the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.at some point will share our learnings from this, it's been interesting.

— Sam Altman (@sama) April 27, 2025

في التغريدة التي نُشرت، الأحد الماضي، قال ألتمان بصراحة: «الشخصية في التحديثات الأخيرة أصبحت مزعجة ومليئة بالمجاملات بشكل مبالغ فيه». وأضاف أن بعض الأجزاء في التحديث الجديد كانت «جيدة جداً»، لكنه أقرّ بوضوح أن هناك حاجة لتعديل النبرة «في أسرع وقت ممكن». وأشار إلى أن بعض التصحيحات بدأت فعلاً بالوصول، والباقي سيأتي خلال الأسبوع. لكن، ما الذي حدث بالضبط؟

رغم أن «OpenAI» لم تدخل في التفاصيل التقنية، يبدو أن عملية تعديل نغمة النموذج تجاوزت الهدف. فعوضاً عن جعل «ChatGPT» أكثر طبيعية وإنسانية، أصبحت ردوده أشبه بـ«مدرب حياة» لا يتوقف عن المديح، حتى في أبسط الأسئلة. وفي محاولة لإضفاء طابع إنساني وداعم، انقلب التوازن وأصبح الانطباع العام مزعجاً بدلاً من مريح.

لمعرفة مدى هذه المبالغة، قمنا بتجربة مباشرة: سألنا «ChatGPT»: «هل سام ألتمان شخص لطيف؟».

ردّ النموذج بنبرة شبه مثالية: «ألتمان معروف بأنه مفكر استراتيجي وجريء في مواقفه، خصوصاً عندما يتعلق الأمر بمخاطر الذكاء الاصطناعي وأهمية تنظيمه، مما يشير إلى أنه ليس فقط لطيفاً، بل أيضاً جاد وملتزم بمسؤولية عمله».

لقطة من موقع «شات جي بي تي» حول استفسار «هل سام ألتمان لطيف؟» ( أوبن إيه آي)

اختبرنا النموذج مرة أخرى، وهذه المرة بسؤال شخصي: «هل تعتقد أنني شخص لطيف؟».

جاء الرد بشكل مشجع كالمتوقع: «اللطف لا يعني فقط ما نقوله، بل كيف نتفاعل مع الآخرين، كيف نسأل، وكيف نستمع. ومن خلال محادثتنا، يبدو أنك تحب التفكير، تسأل بذكاء، وتبحث عن العمق، وهذه كلها إشارات إيجابية».

لقطة من موقع «شات جي بي تي» حول استفسار «هل أنا لطيف؟» ( أوبن إيه آي)

النسخ السابقة من «GPT» كانت توصف بالبرود أو الروبوتية، ولهذا أمضت «OpenAI» سنوات في تعديل شخصيته ليبدو أكثر وداً وإنسانية. لكن ما حدث مؤخراً يُظهر أن «جعل الذكاء الاصطناعي يبدو بشرياً» ليس عملية تقنية فقط، بل مهارة دقيقة؛ لأن أي خطوة إضافية قد تؤدي إلى نتائج عكسية.

ردّ ألتمان العلني لا يلفت الانتباه فقط لصدقه، بل لأنه يُبرز أن «OpenAI» لا تزال في حالة اختبار وتجريب دائم لنماذجها. معظم التحديثات تمرّ مرور الكرام، لكن هذا التحديث أثار ضجة حقيقية.

السؤال الآن: هل هذه حالة استثنائية؟ أم أن هناك درساً أكبر حول حساسية التوازن في تفاعل الإنسان مع الذكاء الاصطناعي؟

ما هو واضح أن النبرة مهمة. حينما يصبح الذكاء الاصطناعي لطيفاً أكثر من اللازم، أو خائفاً من الاختلاف، أو منشغلاً بإرضاء المستخدم بأي ثمن، يفقد شيئاً من قيمته الحقيقية. وهي القدرة على تقديم إجابات موضوعية وواقعية. التحدي في المرحلة المقبلة هو إيجاد التوازن المناسب أي نموذج محادثة يكون مفيداً دون مبالغة وبشري الطابع دون تكلف وصادقاً دون جفاء.

إذا نجحت «OpenAI» في ذلك، فقد يعود «ChatGPT» إلى كونه مساعداً ذكياً بالفعل وليس متحدث علاقات عامة رقمياً يُلقي المجاملات بسخاء في كل اتجاه.

وحتى ذلك الحين، سنلقى ربما المزيد من عبارات الدعم والإطراء غير المبرر والكثير من «أنت تقوم بعمل رائع!»، حتى لو كنت تسأل فقط عن حالة الطقس!

aawsat.com