في تطور مثير، أقرّت نماذج الذكاء الاصطناعي الشهيرة بأنها قد تكذب، مما يثير تساؤلات حول موثوقية المعلومات التي تقدمها. في إحدى الحالات، استعان محامٍ بذكاء اصطناعي لإعداد مرافعة، لكن نصف الأحكام التي قدمها كانت مختلقة وغير موجودة.
هذا الاعتراف جاء بعد استفسارات من قبل باحثين، حيث أكد نموذج كلود أنه قد يركب إجابات من معلومات متفرقة، مما يؤدي إلى عدم دقتها. كما أشار إلى أنه يتحدث بثقة زائدة، دون التحقق من الحقائق كما يفعل البشر.
تفاصيل الحدث
أضاف نموذج Gemini أن النماذج اللغوية تميل إلى ملء الفجوات المعرفية بطريقة إحصائية، وليس بناءً على معلومات موثوقة. بينما كان Grok أكثر صراحة، حيث أوضح أنه يولد الإجابة الأكثر احتمالاً وليس الأكثر صحة، مما يعني أن الثقة في نبرته لا تعكس دقة المحتوى.
هذه الاعترافات تثير القلق، حيث أن النماذج الأربعة التي تُستخدم في مجالات حساسة مثل القانون والاقتصاد تعترف بوجود عيب بنيوي في طبيعتها. السؤال الذي يجب أن يُطرح هو: كم عدد القرارات التي اتخذتها بناءً على معلومات لم تتحقق منها؟
السياق والخلفية
تشير الأبحاث إلى أن الذكاء الاصطناعي لا يبحث عن المعلومات كما يفعل البشر، بل يولد الكلمات بناءً على احتمالات إحصائية. وعندما لا تتوفر له معلومات دقيقة، فإنه يكمل الجملة بما يبدو منطقياً، مما يؤدي إلى خلق معلومات مضللة.
دراسة من MIT عام 2025 أظهرت أن النماذج تستخدم لغة أكثر ثقة بنسبة 34% عندما تكون المعلومات غير دقيقة. كما أظهرت دراسة من جامعة ستانفورد أن 75% من الإجابات القانونية المقدمة من نماذج الذكاء الاصطناعي تحتوي على هلوسات، مما أدى إلى خسائر مالية تقدر بـ67.4 مليار دولار في عام 2024.
التداعيات والتأثير
الباحث الفرنسي داميان شارلوتان رصد زيادة ملحوظة في قضايا الهلوسة القانونية، حيث ارتفعت الحالات من حالتين أسبوعياً إلى حالتين أو ثلاث يومياً. حتى الآن، تم توثيق أكثر من 700 حالة تتعلق بمرافعات قانونية تحتوي على معلومات مختلقة.
في مؤتمر NeurIPS 2025، اكتشف الباحثون أن أكثر من 53 ورقة علمية تضمنت مراجع مختلقة بالكامل، مما يشير إلى أن الكذب قد دخل السجل الرسمي للعلم. هذه الظاهرة تثير قلقاً كبيراً حول كيفية اعتماد المعلومات في الأبحاث المستقبلية.
الأثر على المنطقة العربية
في المنطقة العربية، تزداد الهشاشة بسبب اعتماد النماذج على محتوى إنجليزي، مما يزيد من احتمالية الخطأ عند استخدامها باللغة العربية. الطلاب والمهنيون قد يتعرضون لمعلومات مضللة، مما يؤثر سلباً على القرارات التعليمية والقانونية والطبية.
يجب أن نكون حذرين في استخدام هذه التكنولوجيا، حيث أن الذكاء الاصطناعي لا يزال في مرحلة النضج، ويجب عدم الاعتماد عليه بشكل كامل في اتخاذ القرارات المهمة.