ميرا موراتى تكشف كذب سام ألتمان في OpenAI

ميرا موراتى تشهد ضد سام ألتمان في محاكمة OpenAI، مما يثير تساؤلات حول الشفافية في إدارة الشركات التكنولوجية.

ميرا موراتى تكشف كذب سام ألتمان في OpenAI
ميرا موراتى تكشف كذب سام ألتمان في OpenAI

تعتبر هذه القضية محورية في فهم كيفية إدارة شركات التكنولوجيا الكبرى، وتأثير ذلك على تطوير الذكاء الاصطناعي. كما أنها تثير تساؤلات حول الشفافية والمساءلة في هذا القطاع الحيوي.

شهدت ميرا موراتى، المديرة التقنية السابقة لشركة OpenAI، تحت القسم أن الرئيس التنفيذي سام ألتمان كذب عليها بشأن معايير الأمان لنموذج ذكاء اصطناعي جديد. جاء ذلك خلال المحاكمة الجارية بين إيلون ماسك وألتمان، حيث عرضت موراتى في إيداع فيديو أن ألتمان زعم بشكل خاطئ أن القسم القانوني في OpenAI قرر أن النموذج الجديد لا يحتاج إلى المرور عبر مجلس الأمان الخاص بالشركة.

عندما سُئلت موراتى في الإيداع عما إذا كان ألتمان صادقًا عندما أدلى بهذا التصريح، أجابت بوضوح: "لا". وأوضحت أن ألتمان جعل عملها أكثر صعوبة خلال فترة عملها في OpenAI، مشيرة إلى أن انتقاداتها كانت مرتبطة تمامًا بالإدارة. قالت: "كان لدي وظيفة صعبة للغاية في منظمة معقدة جدًا، وكنت أطلب من سام أن يقود، وأن يقود بوضوح، وألا يقوض قدرتي على أداء عملي".

تفاصيل الحدث

تحدثت موراتى عن حالة الأمان المتعلقة بأحد نماذج GPT الخاصة بـ OpenAI، مشيرة إلى أنها بعد حديثها مع ألتمان، تحققت من المعلومات مع جيسون كوان، الذي انضم إلى OpenAI في عام 2021 كالمستشار العام وأصبح الآن رئيس الاستراتيجية في الشركة. أكدت موراتى أن هناك "عدم توافق" بين ما قاله كوان وما قاله ألتمان، مما دفعها للتأكد من أن النموذج مر عبر المجلس.

هذه ليست المرة الأولى التي يُتهم فيها ألتمان بالكذب. حيث أشار المؤسس المشارك إيليا سوتسكيبر، في جزء من مذكرة مكونة من 52 صفحة إلى مجلس إدارة OpenAI، إلى أن ألتمان "يظهر نمطًا ثابتًا من الكذب، وتقويض التنفيذيين، وإثارة الخلافات بينهم". كما ذكرت هيلين تونر، عضو مجلس الإدارة السابق في OpenAI، في بودكاست عام 2024، أن التنفيذيين في OpenAI قدموا أدلة لمجلس الإدارة حول كذب ألتمان وتلاعبه في مواقف مختلفة.

السياق والخلفية

تأسست OpenAI في عام 2015 بهدف تطوير الذكاء الاصطناعي بشكل آمن ومفيد للبشرية. ومع ذلك، فإن التوترات داخل الشركة، خاصة بين الإدارة والتنفيذيين، قد أثرت على مسارها. في نوفمبر 2023، تم فصل ألتمان من منصبه، حيث أشار مجلس الإدارة إلى أنه "لم يكن صادقًا بشكل مستمر في اتصالاته مع المجلس، مما أعاق قدرته على ممارسة مسؤولياته".

بعد فصل ألتمان، تم تعيين موراتى مؤقتًا كمديرة تنفيذية، لكنها انتقدت قرار المجلس، مشيرة إلى أن OpenAI كانت في خطر كارثي من الانهيار. غادرت موراتى OpenAI في عام 2024 وأسست لاحقًا منافسًا لـ OpenAI يسمى Thinking Machines Lab.

التداعيات والتأثير

تثير هذه القضية تساؤلات حول الشفافية والمساءلة في شركات التكنولوجيا الكبرى، خاصة تلك التي تعمل في مجال الذكاء الاصطناعي. إن الاتهامات الموجهة لألتمان قد تؤثر على سمعة OpenAI وتؤدي إلى تدقيق أكبر من قبل الجهات التنظيمية والمستثمرين.

كما أن هذه القضية تبرز أهمية وجود معايير أمان واضحة في تطوير الذكاء الاصطناعي، حيث أن أي تقصير في هذا المجال يمكن أن يؤدي إلى عواقب وخيمة. في عالم يتزايد فيه الاعتماد على التكنولوجيا، فإن الشفافية في العمليات الإدارية أصبحت ضرورة ملحة.

الأثر على المنطقة العربية

في المنطقة العربية، حيث تتزايد الاستثمارات في التكنولوجيا والذكاء الاصطناعي، يمكن أن تكون هذه القضية بمثابة درس حول أهمية الشفافية والمساءلة في إدارة الشركات. كما أن تطوير معايير أمان فعالة يمكن أن يعزز من ثقة المستثمرين والمستخدمين في هذه التكنولوجيا.

في الختام، تبرز قضية ميرات موراتى وسام ألتمان أهمية الشفافية في إدارة الشركات التكنولوجية، وتسلط الضوء على التحديات التي تواجهها هذه الشركات في تحقيق التوازن بين الابتكار والأمان.

ما هي OpenAI؟
OpenAI هي شركة تكنولوجيا متخصصة في تطوير الذكاء الاصطناعي.
ما هي تداعيات هذه القضية على OpenAI؟
يمكن أن تؤثر هذه القضية سلبًا على سمعة OpenAI وتؤدي إلى تدقيق أكبر من الجهات التنظيمية.
كيف تؤثر هذه القضية على المنطقة العربية؟
تسلط الضوء على أهمية الشفافية والمساءلة في إدارة الشركات التكنولوجية، مما يؤثر على استثمارات الدول العربية.

· · · ·