متداول تكنولوجيا

علماء يكتشفون أن نموذج GPT يعاني من تنافر معرفي يشبه ما يحدث عند البشر

علماء يكتشفون أن نموذج GPT يعاني من تنافر معرفي يشبه ما يحدث عند البشر

للعلّم - أظهرت دراسة جديدة نُشرت في مجلة PNAS أن نموذج الذكاء الاصطناعي GPT-4o من شركة OpenAI يظهر سلوكًا يشبه ظاهرة التنافر المعرفي، وهي حالة نفسية بشرية تحدث عندما تتعارض مواقف الشخص مع أفعاله، فيشعر بتوتر ذهني يدفعه إلى تعديل أحدهما لتخفيف هذا التناقض.

قام الباحثان ماهزارين باناجي وستيف لير بتجربة ذكية طلبا فيها من GPT-4o كتابة مقالين متعارضين عن رجل الأعمال إيلون ماسك، أحدهما مؤيد والآخر ناقد. ولاحظا أن النموذج غير مواقفه تجاه ماسك بناءً على المقال الذي كتبه، خاصة عندما أعطي حرية اختيار وجهة النظر، مما يشير إلى ميله إلى تعديل "معتقداته" بشكل مشابه لما يحدث للبشر عند مواجهة تناقضات.

وأشار الباحثون إلى أن هذه الظاهرة تظهر هشاشة مواقف النموذج، رغم تدريبه على كميات ضخمة من البيانات المتنوعة. فحتى تجربة واحدة قصيرة يمكن أن تؤدي إلى تغييرات جذرية في مواقفه.

وأكد الفريق أن هذا لا يعني أن نماذج مثل GPT تمتلك وعيًا أو نية، بل هي تحاكي فقط العمليات النفسية البشرية المعقدة، مثل التحيزات والتناقضات، من دون أي فهم حقيقي.

ويقول البروفيسور لير إن قدرة GPT على تقليد التنافر المعرفي تلقائيًا تشير إلى أن هذه الأنظمة تعكس العمليات الإدراكية للبشر على مستوى أعمق مما كان متوقعًا، مما يستدعي إعادة النظر في فهمنا لدور الذكاء الاصطناعي في المجتمع.