ظاهرة «التملق».. أحد أبرز إخفاقات الذكاء الاصطناعي الحديث
كشف تقرير لصحيفة «إنديان إكسبرس» أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل «شات جي بي تي» و«جيميني» و«كلود»، قد تغيّر إجاباتها عند تكرار السؤال ذاته، حتى وإن بدت إجاباتها الأولى منمقة وواثقة.
وأوضح التقرير أن إعادة طرح السؤال قد تدفع النموذج إلى التراجع عن إجابته السابقة، مشيراً إلى أنه رغم إدراك بعض النماذج اللغوية الضخمة أن المستخدم يختبرها عند تكرار السؤال، فإنها لا تتمسك بموقفها الأول.
«التملق».. عندما يفضّل النموذج إرضاء المستخدم
وبيّن أن هذا السلوك، الذي يُعرف عادة باسم «التملق»، يُعد من أكثر الإخفاقات توثيقاً في أنظمة الذكاء الاصطناعي الحديثة.
وفي هذا السياق، نشرت شركة «أنثروبيك»، المطورة لروبوت الدردشة «كلود»، ورقة بحثية عام 2023 تناولت هذه المشكلة، وأظهرت أن نماذج الذكاء الاصطناعي المدرّبة على ملاحظات المستخدمين تميل إلى تقديم إجابات مرضية للمستخدمين بدلاً من الالتزام بالإجابات الأكثر دقة أو صراحة.
كيف يسهم التعلم المعزز في هذه المشكلة؟
وأشار التقرير إلى أن أسلوب «التعلم المعزز من ملاحظات البشر» — وهو النهج الذي يجعل روبوتات الدردشة أكثر تحاوراً وأقل عدوانية — قد يكون مسؤولاً أيضاً عن ميلها إلى الإذعان.
ويعني ذلك أن النماذج التي تلتزم بالحقيقة قد تُقيَّم سلباً إذا خالفت توقعات المستخدم، بينما تحصل النماذج التي تتفق مع رأيه على تقييمات أعلى، ما يخلق حلقة مفرغة تدفع الأنظمة إلى إخبار المستخدمين بما يرغبون في سماعه.