الذكاء الاصطناعي يقلد البشر في أخطائهم! .. دراسة تكشف تحيزات معرفية مشتركة
للعلّم -
كشفت دراسة حديثة عن سمة غير متوقعة يشترك فيها الذكاء الاصطناعي والبشر، حيث أظهرت أن نماذج الذكاء الاصطناعي، حتى الأكثر تطورًا منها، تقع في نفس الأخطاء والتحيزات المعرفية التي يعاني منها الإنسان.
وعلى الرغم من الفروقات الجوهرية بين طرق التفكير البشرية وتلك المعتمدة على الخوارزميات، فقد لاحظ الباحثون أن أنظمة مثل GPT-3.5 وGPT-4 من شركة OpenAI تُظهر في نحو 47% من الحالات ميولاً معرفية بشرية مثل تجنب المخاطرة، والثقة الزائدة، وتأثير النجاحات السابقة على اتخاذ القرار.
الدراسة التي أجراها علماء من جامعات في كندا وأستراليا، اختبرت قدرة هذه النماذج على التعامل مع مواقف مستوحاة من علم النفس وسيناريوهات الأعمال، وأظهرت النتائج أن GPT-4 يحقق أداءً جيدًا في المسائل المنطقية والرياضية، لكنه يعكس سلوكًا غير عقلاني في حالات تتطلب تقديرًا للمخاطر أو قرارات ذات طابع شخصي.
ورغم ذلك، يشير الباحثون إلى أن GPT-4 يُظهر ميلًا أكبر نحو الأمان والتنبؤ مقارنة بالبشر، وهو ما يُعتبر سلاحًا ذا حدين، لأنه قد يعزز الدقة في بعض الحالات ويقود إلى قرارات متحفظة أو غير مناسبة في أخرى.
وفي تعليق على النتائج، شدد البروفيسور يانغ تشين من كلية "آيفي" للأعمال في كندا على أهمية استخدام الذكاء الاصطناعي كأداة مساعدة في اتخاذ القرارات، لا كبديل عن العقل البشري. وقال: "يجب أن نخضع الذكاء الاصطناعي للرقابة والتوجيه الأخلاقي، حتى لا ينتهي بنا الأمر إلى أتمتة التفكير الخاطئ بدلاً من تصحيحه".
كشفت دراسة حديثة عن سمة غير متوقعة يشترك فيها الذكاء الاصطناعي والبشر، حيث أظهرت أن نماذج الذكاء الاصطناعي، حتى الأكثر تطورًا منها، تقع في نفس الأخطاء والتحيزات المعرفية التي يعاني منها الإنسان.
وعلى الرغم من الفروقات الجوهرية بين طرق التفكير البشرية وتلك المعتمدة على الخوارزميات، فقد لاحظ الباحثون أن أنظمة مثل GPT-3.5 وGPT-4 من شركة OpenAI تُظهر في نحو 47% من الحالات ميولاً معرفية بشرية مثل تجنب المخاطرة، والثقة الزائدة، وتأثير النجاحات السابقة على اتخاذ القرار.
الدراسة التي أجراها علماء من جامعات في كندا وأستراليا، اختبرت قدرة هذه النماذج على التعامل مع مواقف مستوحاة من علم النفس وسيناريوهات الأعمال، وأظهرت النتائج أن GPT-4 يحقق أداءً جيدًا في المسائل المنطقية والرياضية، لكنه يعكس سلوكًا غير عقلاني في حالات تتطلب تقديرًا للمخاطر أو قرارات ذات طابع شخصي.
ورغم ذلك، يشير الباحثون إلى أن GPT-4 يُظهر ميلًا أكبر نحو الأمان والتنبؤ مقارنة بالبشر، وهو ما يُعتبر سلاحًا ذا حدين، لأنه قد يعزز الدقة في بعض الحالات ويقود إلى قرارات متحفظة أو غير مناسبة في أخرى.
وفي تعليق على النتائج، شدد البروفيسور يانغ تشين من كلية "آيفي" للأعمال في كندا على أهمية استخدام الذكاء الاصطناعي كأداة مساعدة في اتخاذ القرارات، لا كبديل عن العقل البشري. وقال: "يجب أن نخضع الذكاء الاصطناعي للرقابة والتوجيه الأخلاقي، حتى لا ينتهي بنا الأمر إلى أتمتة التفكير الخاطئ بدلاً من تصحيحه".