Компания Anthropic, специализирующаяся на искусственном интеллекте, готовится к судебному разбирательству с правительством США в федеральном суде Сан-Франциско, где она представит свои аргументы для получения предварительного судебного запрета против Министерства обороны США и Белого дома. Этот шаг стал ответом на заявление бывшего президента США Дональда Трампа и министра обороны Пита Хайгса в феврале, о разрыве отношений с компанией после отказа разрешить использование своей модели Claude для неограниченных военных целей.
Споры касаются использования автономного смертоносного оружия без человеческого контроля, а также массового наблюдения за гражданами США. В результате правительство США классифицировало Anthropic как угрозу для цепочки поставок национальной безопасности и приказало федеральным агентствам прекратить использование модели Claude.
Детали события
Слушание пройдет перед федеральным судьей Ритой Лин, которая ускорила дату заседания с 3 апреля на вторник. Anthropic стремится оспорить свою классификацию как угрозу для цепочки поставок, заявив, что у компании нет другого выбора, кроме как бросить вызов в суде.
9 марта Anthropic подала два иска против правительства из-за своей классификации. Один из исков касается пересмотра классификации в соответствии с действующим законодательством Министерства обороны, где Anthropic утверждает, что эта классификация "беспрецедентна и незаконна", так как исторически она применялась только к иностранным противникам, таким как Huawei, и не может быть законно использована против местной компании из-за разногласий по политике.
Контекст и предыстория
Anthropic была основана в 2020 году и привлекла внимание Министерства обороны США, подписав контракт на сумму 200 миллионов долларов в 2025 году для внедрения своей технологии в секретные системы. Во время переговоров Anthropic подтвердила, что не хочет использовать свои системы искусственного интеллекта для массового наблюдения, и что ее технология не была готова для использования в принятии решений о стрельбе.
17 марта Министерство обороны сообщило, что обеспокоено тем, что Anthropic может попытаться "подорвать свою технологию или изменить поведение своей модели" до или во время "военных операций", если она почувствует, что ее "красные линии" были пересечены. Anthropic утверждает, что эти опасения не возникали во время переговоров, а появились только в материалах правительства перед судом.
Последствия и влияние
Этот случай подчеркивает этические и правовые вызовы, с которыми сталкиваются компании в области искусственного интеллекта, и ставит вопросы о том, кто должен определять границы этой технологии: технологические компании, руководствующиеся принципами внутренней безопасности, или государственные органы, действующие от имени национальной безопасности и геополитических интересов?
Многие ученые и исследователи в области искусственного интеллекта, включая представителей крупных компаний, таких как OpenAI, Google и Microsoft, поддерживают Anthropic, предоставляя меморандумы поддержки по делу. В свою очередь, Министерство обороны США переключило свое внимание на сотрудничество с другими компаниями в области искусственного интеллекта, такими как xAI и Google.
Влияние на арабский регион
Этот случай имеет важное значение для арабского региона, где растут инвестиции в технологии искусственного интеллекта. Результаты этого дела могут повлиять на то, как арабские страны будут взаимодействовать с компаниями в области искусственного интеллекта, особенно в свете существующих угроз безопасности и политических вызовов.
В заключение, этот случай отражает нарастающее напряжение между технологическими инновациями и требованиями национальной безопасности, поднимая вопросы о будущем искусственного интеллекта в мире.