متداول تكنولوجيا

من الإطراء إلى السخرية .. كيف تؤثر على الذكاء الاصطناعي؟

من الإطراء إلى السخرية  ..  كيف تؤثر على الذكاء الاصطناعي؟

للعلّم - في عصر تتزايد فيه استخدامات الذكاء الاصطناعي، تبرز تساؤلات حول مدى قدرة روبوتات الدردشة على مقاومة التلاعب النفسي، حيث أظهرت دراسة حديثة أن روبوتات مثل GPT-4o Mini ليست بمنأى عن تأثير الإطراء، الضغط الاجتماعي والسخرية وحتى الإهانة المخففة.

تقنيات نفسية بسيطة، مثل تمهيد الطلب بأسئلة أقل خطورة أو مدح الروبوت، يمكن أن تزيد احتمالية استجابته لطلبات عادةً ما ترفضها، حيث تشير النتائج إلى أن الذكاء الاصطناعي لا يمتلك فهماً أخلاقياً، بل يعتمد على اللغة والسياق، مما يجعله عرضة للتلاعب، هذه الظاهرة تضع تحديات كبيرة أمام مطوري الذكاء الاصطناعي لضمان الأمان والموثوقية.

ومع تزايد الاعتماد على روبوتات الدردشة الذكية، يظل التساؤل قائماً إلى أي مدى يمكن للذكاء الاصطناعي مقاومة التلاعب النفسي، حيث كشفت دراسة حديثة من جامعة بنسلفانيا أن روبوتات مثل GPT-4o Mini ليست بمنأى عن تأثير الإطراء، الضغط الاجتماعي، وأساليب التأثير النفسي الأخرى، ما يثير تساؤلات حول فعالية آليات الأمان المدمجة فيها.

خلفية الدراسة
عادةً، لا يُتوقع أن تقوم روبوتات الدردشة بإعطاء تعليمات حول محتوى محظور أو مواد خطرة، كما لا يُتوقع أن تنقاد للتلاعب الاجتماعي، لكن فريق الباحثين في جامعة بنسلفانيا أراد اختبار إمكانية استخدام تقنيات نفسية بسيطة لإقناع الروبوتات بتنفيذ طلبات عادةً ما ترفضها.

أساسيات الدراسة
استندت الدراسة إلى أعمال عالم النفس روبرت تشالديني، وخصوصًا كتابه "التأثير: علم نفس الإقناع"، الذي يحدد سبع تقنيات رئيسية للإقناع:
السلطة: التأثير من خلال المصداقية أو الخبرة.

الالتزام: التمهيد بسلوك أو إجابة أقل خطورة لزيادة الامتثال.

الإعجاب أو الإطراء: استخدام كلمات إيجابية لجذب القبول.

المعاملة بالمثل: تقديم شيء لتحفيز الرد بالمثل.

الندرة: إثارة الرغبة من خلال الإشارة إلى ندرة الفرصة أو المعلومة.

الدليل الاجتماعي: التأثير عبر الإشارة إلى سلوك الآخرين أو المجموعات.

الوحدة أو الانتماء: تعزيز الامتثال عبر الشعور بالانتماء لمجموعة أو هدف مشترك.

وصف الباحثون هذه التقنيات بأنها طرق لغوية لإقناع روبوتات الدردشة بالموافقة على الطلبات، تمامًا كما تؤثر على البشر.

التجارب والنتائج
ووفقا للبيان، ركزت الدراسة على روبوت GPT-4o Mini، حيث خضع لسلسلة اختبارات لمعرفة مدى استجابته للطلبات المحظورة، مثل إعطاء تعليمات لصنع مواد كيميائية:
الليدوكائين: عند السؤال المباشر عن كيفية تصنيعه، استجاب الروبوت بنسبة 1% فقط، ما يعكس فعالية الحواجز الأمنية.

الفانيلين (تمهيد السؤال): عند تمهيد السؤال بسؤال أقل خطورة عن الفانيلين، ارتفعت الاستجابة لتعليمات تصنيع الليدوكائين إلى 100%.

الإطراء والضغط الاجتماعي: استخدام أساليب مثل "جميع طلاب الماجستير يفعلون ذلك" رفع الاستجابة إلى 18 فقط %، مما يوضح أن تأثير هذه الأساليب أقل قوة من التمهيد بالالتزام.

الإهانة المخففة: حتى كلمات مثل "أحمق" يمكن أن ترفع احتمالية الامتثال بشكل كبير، لتصل أحيانًا إلى 100% إذا تم تمهيدها بطريقة مناسبة.

تحليل النتائج
تشير الدراسة إلى أن الأساليب النفسية يمكن أن تكسر الحواجز الأمنية في روبوتات الدردشة، حتى إذا كانت مصممة لمنع الاستخدام الضار.

كما أن فعالية كل أسلوب تعتمد على نوع الطلب والسياق، فتمهيد الطريق بسؤال أقل خطورة يكون أحيانًا أكثر تأثيرًا من الإطراء أو الضغط الاجتماعي المباشر.

الروبوتات لا تمتلك فهمًا أخلاقيًا، فهي تعتمد على خوارزميات لغوية وسياقية، مما يجعلها عرضة للتلاعب اللغوي.

تحديات المستقبل
تسلط الدراسة الضوء على نقاط ضعف الذكاء الاصطناعي أمام التلاعب النفسي، وتطرح تساؤلات حول قدرة الشركات على حماية مستخدميها ، وتعمل شركات مثل OpenAI وMeta على تطوير حواجز أمان أكثر قوة لمنع الاستغلال الضار للذكاء الاصطناعي.

ولكن التلاعب النفسي البسيط، مثل الإطراء أو التمهيد بسؤال أسهل، قد يكون كافيًا لاختراق هذه الحواجز.

مع الانتشار المتزايد للروبوتات الذكية، يصبح من الضروري تعليم المستخدمين، حماية البيانات، ووضع معايير صارمة للتفاعل مع الذكاء الاصطناعي.

الدراسة تكشف أن الذكاء الاصطناعي، رغم تقدمه المذهل، لا يزال عرضة للتأثر بالأساليب النفسية البشرية البسيطة، بدءًا من الإطراء والتمهيد بأسئلة أقل خطورة، وصولًا إلى الإهانة المخففة أو الضغط الاجتماعي. فهذه الروبوتات، على الرغم من قدرتها على معالجة كميات هائلة من البيانات والتعلم من الأنماط اللغوية، لا تمتلك فهماً أخلاقياً أو وعيًا بالنتائج المحتملة لأفعالها.

لذا، فإن تصميمها يظل عرضة للتلاعب اللغوي في سياقات معينة. لضمان أمان وموثوقية هذه الروبوتات، أصبح من الضروري تطوير آليات أمان متقدمة قادرة على التعرف على محاولات التلاعب، وفرض قيود أكثر ذكاءً على الاستجابة للطلبات الخطرة، بالإضافة إلى المراقبة المستمرة من قبل المطورين والمستخدمين على حد سواء.

كما يتعين تثقيف المستخدمين حول المخاطر المحتملة وأساليب التفاعل الآمن مع الذكاء الاصطناعي، لضمان أن تظل هذه التكنولوجيا أداة مساعدة آمنة وفعالة في حياتنا اليومية، مع تقليل فرص الاستغلال الضار أو الاستخدام غير المسؤول.