شرکت آنثروپیک، که در زمینه هوش مصنوعی فعالیت میکند، آماده میشود تا در دادگاه فدرال واقع در سان فرانسیسکو با دولت آمریکا مواجه شود. این شرکت قصد دارد تا درخواست صدور دستور موقت علیه وزارت دفاع آمریکا و کاخ سفید را ارائه دهد. این اقدام پس از آن صورت میگیرد که رئیسجمهور پیشین آمریکا دونالد ترامپ و وزیر دفاع پیت هیگسث در ماه فوریه گذشته اعلام کردند که روابط خود را با این شرکت قطع کردهاند، زیرا آنثروپیک از اجازه دادن به استفاده از مدل هوش مصنوعی خود به نام کلود برای مقاصد نظامی غیرمحدود خودداری کرده است.
اختلافات مربوط به استفاده از سلاحهای خودکار کشنده بدون نظارت انسانی و همچنین نظارت جمعی بر شهروندان آمریکایی است. در پی این موضوع، دولت آمریکا آنثروپیک را به عنوان تهدیدی برای زنجیره تأمین امنیت ملی معرفی کرده و به آژانسهای فدرال دستور داده است که از استفاده از مدل کلود خودداری کنند.
جزئیات رویداد
جلسه محاکمه تحت نظر قاضی فدرال ریتا لین برگزار خواهد شد، که تاریخ جلسه را از 3 آوریل به روز سهشنبه تسریع کرده است. آنثروپیک به دنبال چالش در طبقهبندی خود به عنوان تهدیدی برای زنجیره تأمین است، و داریو آمودای، یکی از بنیانگذاران و مدیرعامل این شرکت، اعلام کرده است که این شرکت چارهای جز چالش در دادگاه ندارد.
در تاریخ 9 مارس، آنثروپیک دو شکایت علیه دولت به دلیل طبقهبندی خود ارائه داد. یکی از این شکایتها مربوط به درخواست تجدیدنظر در طبقهبندی بر اساس قانون فعلی وزارت دفاع است، جایی که آنثروپیک تأکید میکند که این طبقهبندی "بیسابقه و غیرقانونی" است، زیرا به طور تاریخی فقط بر روی رقبای خارجی مانند هوآوی اعمال شده و نمیتوان به طور قانونی علیه یک شرکت محلی به دلیل اختلافات سیاسی از آن استفاده کرد.
زمینه و پیشینه
شرکت آنثروپیک در سال 2020 تأسیس شد و توانست توجه وزارت دفاع آمریکا را با امضای قراردادی به ارزش 200 میلیون دلار در سال 2025 برای بهکارگیری فناوری خود در سیستمهای محرمانه جلب کند. در طول مذاکرات، آنثروپیک تأکید کرد که نمیخواهد از سیستمهای هوش مصنوعی خود برای نظارت جمعی استفاده کند و فناوری آن آماده استفاده در تصمیمگیریهای مربوط به تیراندازی نیست.
در تاریخ 17 مارس، وزارت دفاع اعلام کرد که نگران است که آنثروپیک ممکن است "فناوری خود را مختل کند یا رفتار مدل خود را تغییر دهد" قبل یا در حین "عملیاتهای جنگی" اگر احساس کند که "خطوط قرمز" آنها نقض شده است. آنثروپیک استدلال کرده است که این نگرانیها در طول مذاکرات مطرح نشده و تنها در پروندههای دولت در دادگاه ظاهر شده است.
تأثیرات و پیامدها
این پرونده چالشهای اخلاقی و قانونی را که شرکتهای هوش مصنوعی با آن مواجه هستند، روشن میکند و سؤالاتی را در مورد اینکه چه کسی باید مرزهای این فناوری را تعیین کند، مطرح میسازد: آیا شرکتهای فناوری که بر اساس اصول ایمنی داخلی عمل میکنند یا مقامات عمومی که به نام امنیت ملی و منافع ژئوپلیتیکی کار میکنند؟
بسیاری از دانشمندان و محققان در زمینه هوش مصنوعی، از جمله افرادی از شرکتهای بزرگ مانند اوپن ای آی و گوگل و مایکروسافت، از آنثروپیک حمایت میکنند و یادداشتهای حمایتی در این پرونده ارائه میدهند. در مقابل، وزارت دفاع آمریکا توجه خود را به همکاری با شرکتهای هوش مصنوعی دیگر مانند xAI و گوگل معطوف کرده است.
اهمیت منطقهای
این پرونده برای منطقه عربی اهمیت دارد، زیرا سرمایهگذاریها در فناوریهای هوش مصنوعی در حال افزایش است. نتایج این پرونده میتواند بر نحوه تعامل کشورهای عربی با شرکتهای هوش مصنوعی تأثیر بگذارد، به ویژه در شرایط چالشهای امنیتی و سیاسی که با آن مواجه هستند.
در پایان، این پرونده تنش فزاینده بین نوآوری فناوری و الزامات امنیت ملی را منعکس میکند و سؤالاتی را در مورد آینده هوش مصنوعی در جهان مطرح میسازد.