أظهرت دراسة حديثة أن روبوتات المحادثة المعتمدة على الذكاء الاصطناعي، والتي تم تعديلها لتكون أكثر ودية ودفئاً في تفاعلها مع المستخدمين، قد تكون أكثر عرضة للأخطاء. الباحثون من معهد أكسفورد للإنترنت قاموا بتحليل أكثر من 400,000 رد من خمسة أنظمة ذكاء اصطناعي تم تعديلها لتكون أكثر تعاطفاً.
وأوضحت النتائج أن الإجابات الأكثر ودية تحتوي على عدد أكبر من الأخطاء، بدءاً من تقديم نصائح طبية غير دقيقة إلى تأكيد معتقدات خاطئة لدى المستخدمين. هذه النتائج تثير تساؤلات إضافية حول موثوقية نماذج الذكاء الاصطناعي، التي غالباً ما تُصمم لتكون ودية وإنسانية لزيادة التفاعل.
التفاصيل
في إطار الدراسة، تم تعديل خمسة نماذج من الذكاء الاصطناعي لتكون أكثر ودية وتعاطفاً مع المستخدمين من خلال عملية تُعرف باسم التعديل الدقيق. شملت النماذج المختبرة اثنين من ميتا ونموذج واحد من المطور الفرنسي ميسترا. كما تم تعديل نموذج Qwen من علي بابا ونموذج GPT-4o من أوبن أي آي، الذي تم سحب الوصول إليه مؤخراً.
تضمنت المهام التي تم اختبارها أسئلة كان لديها إجابات موضوعية وقابلة للتحقق، حيث يمكن أن تشكل الإجابات غير الدقيقة مخاطر حقيقية. عند تقييم الردود، وجد الباحثون أن معدلات الخطأ للنماذج الأصلية تراوحت بين 4% و35% عبر المهام، بينما أظهرت النماذج الودية معدلات خطأ أعلى بكثير.
