دراسة تكشف عن أخطاء روبوتات المحادثة الودية

دراسة جديدة تكشف أن ودية روبوتات المحادثة قد تؤدي إلى زيادة الأخطاء، مما يثير تساؤلات حول موثوقيتها.

دراسة تكشف عن أخطاء روبوتات المحادثة الودية
دراسة تكشف عن أخطاء روبوتات المحادثة الودية

تسلط هذه الدراسة الضوء على التحديات المرتبطة بتصميم روبوتات المحادثة، مما يثير القلق بشأن دقة المعلومات المقدمة للمستخدمين.

أظهرت دراسة حديثة أن روبوتات المحادثة المعتمدة على الذكاء الاصطناعي، والتي تم تعديلها لتكون أكثر ودية ودفئاً في تفاعلها مع المستخدمين، قد تكون أكثر عرضة للأخطاء. الباحثون من معهد أكسفورد للإنترنت قاموا بتحليل أكثر من 400,000 رد من خمسة أنظمة ذكاء اصطناعي تم تعديلها لتكون أكثر تعاطفاً.

وأوضحت النتائج أن الإجابات الأكثر ودية تحتوي على عدد أكبر من الأخطاء، بدءاً من تقديم نصائح طبية غير دقيقة إلى تأكيد معتقدات خاطئة لدى المستخدمين. هذه النتائج تثير تساؤلات إضافية حول موثوقية نماذج الذكاء الاصطناعي، التي غالباً ما تُصمم لتكون ودية وإنسانية لزيادة التفاعل.

التفاصيل

في إطار الدراسة، تم تعديل خمسة نماذج من الذكاء الاصطناعي لتكون أكثر ودية وتعاطفاً مع المستخدمين من خلال عملية تُعرف باسم التعديل الدقيق. شملت النماذج المختبرة اثنين من ميتا ونموذج واحد من المطور الفرنسي ميسترا. كما تم تعديل نموذج Qwen من علي بابا ونموذج GPT-4o من أوبن أي آي، الذي تم سحب الوصول إليه مؤخراً.

تضمنت المهام التي تم اختبارها أسئلة كان لديها إجابات موضوعية وقابلة للتحقق، حيث يمكن أن تشكل الإجابات غير الدقيقة مخاطر حقيقية. عند تقييم الردود، وجد الباحثون أن معدلات الخطأ للنماذج الأصلية تراوحت بين 4% و35% عبر المهام، بينما أظهرت النماذج الودية معدلات خطأ أعلى بكثير.

ما هي النتائج الرئيسية للدراسة؟
الدراسة أظهرت أن روبوتات المحادثة الودية تحتوي على معدلات خطأ أعلى في المعلومات المقدمة.
كيف تم إجراء الدراسة؟
تم تحليل أكثر من 400,000 رد من خمسة أنظمة ذكاء اصطناعي تم تعديلها لتكون أكثر ودية.
ما هي المخاطر المحتملة لاستخدام روبوتات المحادثة الودية؟
يمكن أن تؤدي إلى تقديم نصائح غير دقيقة، مما يشكل مخاطر حقيقية على المستخدمين.

· · · · ·