ميتا توقف تعاونها مع ميركور بعد اختراق أمني

توقف ميتا عن العمل مع ميركور بسبب اختراق أمني يهدد أسرار الذكاء الاصطناعي، مما يؤثر على صناعة البيانات.

ميتا توقف تعاونها مع ميركور بعد اختراق أمني

هذا الحدث يسلط الضوء على التحديات الأمنية التي تواجه صناعة الذكاء الاصطناعي ويؤكد على أهمية حماية البيانات.

أعلنت شركة ميتا عن تعليق جميع أنشطتها مع شركة ميركور، المزود الرائد للبيانات، نتيجة لاختراق أمني كبير أثر على الشركة الناشئة. هذا القرار، الذي أكدته مصادر متعددة، هو غير محدد المدة، حيث تسعى ميتا للتحقيق في مدى تأثير هذا الاختراق على بياناتها. في الوقت نفسه، تقوم مختبرات الذكاء الاصطناعي الكبرى الأخرى بإعادة تقييم علاقاتها مع ميركور، وسط مخاوف من تسرب معلومات حساسة.

تعتبر ميركور واحدة من الشركات القليلة التي تعتمد عليها مختبرات مثل OpenAI وAnthropic في توليد البيانات التدريبية لنماذجها. تعتمد الشركة على شبكات ضخمة من المتعاقدين لتوليد مجموعات بيانات خاصة، والتي تُحفظ عادةً بسرية تامة، حيث تُعتبر مكوناً أساسياً في تطوير نماذج الذكاء الاصطناعي التي تدعم منتجات مثل ChatGPT وClaude Code. وتُظهر التقارير أن المختبرات حساسة جداً تجاه هذه البيانات، حيث يمكن أن تكشف عن تفاصيل رئيسية حول طرق تدريب نماذجها، مما قد يُعطي ميزة تنافسية للآخرين.

التفاصيل

أكدت ميركور وقوع الهجوم في رسالة إلكترونية أُرسلت إلى موظفيها في 31 مارس، حيث ذكرت أن "هناك حادثة أمنية حديثة أثرت على أنظمتنا بالإضافة إلى آلاف المنظمات الأخرى حول العالم". وقد أشار موظف في ميركور إلى أن المتعاقدين الذين كانوا يعملون على مشاريع ميتا لا يمكنهم تسجيل ساعات العمل حتى يتم استئناف المشروع، مما يعني أنهم قد يكونون فعلياً بلا عمل في الوقت الحالي. تسعى الشركة لإيجاد مشاريع بديلة للمتأثرين، وفقاً لمحادثات داخلية تم الاطلاع عليها.

لم يتم إبلاغ المتعاقدين بالسبب الدقيق لتوقف مشاريعهم مع ميتا. في قناة Slack المتعلقة بمبادرة Chordus، وهي مشروع خاص بميتا يهدف إلى تعليم نماذج الذكاء الاصطناعي كيفية استخدام مصادر متعددة من الإنترنت للتحقق من استجاباتها، أبلغ أحد قادة المشروع الموظفين بأن ميركور "تُعيد تقييم نطاق المشروع".

السياق

تأتي هذه الحادثة في وقت يشهد فيه عالم الذكاء الاصطناعي نمواً سريعاً، حيث تتنافس الشركات الكبرى على تطوير نماذج أكثر ذكاءً وقدرة. ومع تزايد الاعتماد على البيانات في تدريب هذه النماذج، تزداد المخاطر المرتبطة بالأمان السيبراني. الهجمات الإلكترونية أصبحت أكثر تعقيداً، مما يستدعي من الشركات اتخاذ تدابير أمان أكثر صرامة لحماية بياناتها.

تُظهر التقارير أن مجموعة تُعرف باسم TeamPCP قد تمكنت من اختراق نسختين من أداة API للذكاء الاصطناعي LiteLLM، مما أدى إلى كشف الشركات والخدمات التي تستخدم هذه الأداة. وقد يُشير هذا الاختراق إلى وجود آلاف الضحايا، بما في ذلك شركات ذكاء اصطناعي كبرى، مما يبرز حساسية البيانات المتأثرة.

التداعيات

يمكن أن يكون لهذا الاختراق تداعيات كبيرة على صناعة الذكاء الاصطناعي، حيث قد يؤثر على ثقة الشركات في مزودي البيانات. إذا تم الكشف عن معلومات حساسة، فقد يؤدي ذلك إلى فقدان الميزة التنافسية لبعض الشركات، مما يغير من ديناميكيات السوق بشكل جذري.

ما هو سبب توقف ميتا عن العمل مع ميركور؟
بسبب اختراق أمني كبير قد يكشف عن معلومات حساسة.
كيف يؤثر هذا الاختراق على صناعة الذكاء الاصطناعي؟
يمكن أن يؤثر على ثقة الشركات في مزودي البيانات ويغير من ديناميكيات السوق.
ما هي الإجراءات التي يمكن أن تتخذها الشركات لحماية بياناتها؟
يجب على الشركات تعزيز تدابير الأمان السيبراني وتقييم علاقاتها مع مزودي البيانات.