Компания Антропи в судебном разбирательстве в пятницу заявила, что не обладает возможностью отключить свою генеративную модель искусственного интеллекта «Клод» после ее активации армией США. Эти заявления стали ответом на обвинения со стороны предыдущей администрации Трампа в том, что компания может вмешиваться в свои инструменты во время войны.
Глава сектора общественных услуг в Антропи, Тиаго Рамасами, отметил, что компания «никогда не имела возможности заставить Клод остановиться или изменить его функции, отключить доступ к нему или иным образом повлиять на военные операции». Он добавил, что Антропи «не имеет полномочий отключать технологии или изменять поведение модели до или во время текущих операций».
Конфликт с Министерством обороны США
Споры между Министерством обороны США и лабораторией Антропи продолжаются уже несколько месяцев, касаясь того, как технологии компании могут использоваться в целях национальной безопасности и какие ограничения должны применяться к этому использованию. В этом месяце министр обороны Пит Хегсет охарактеризовал Антропи как представляющую риск для цепочки поставок, что привело к запрету на использование программного обеспечения компании, включая использование через подрядчиков, в ближайшие месяцы, что заставило другие государственные учреждения отказаться от использования Клод.
Компания ответила на это, подав два судебных иска, оспаривающих конституционность запрета, и запросила экстренный приказ для отмены решения. Тем не менее, некоторые клиенты уже начали отменять контракты. Слушание по одному из дел назначено на 24 марта в федеральном окружном суде в Сан-Франциско, и судья может вскоре вынести временное решение.
Правовые и этические аспекты
Адвокаты правительства в предыдущем судебном разбирательстве на этой неделе заявили, что Министерство обороны «не обязано подвергать риску жизненно важные военные системы в критические моменты национальной обороны и активных военных операций». В свою очередь, Министерство обороны использует Клод для анализа данных, написания меморандумов и помощи в генерации боевых планов, согласно отчету журнала WIRED.
Противники Антропи считают, что компания может нарушить текущие военные операции, отключив доступ к Клод или выпустив вредоносные обновления, если не согласится с определенными применениями. Рамасами опроверг эту возможность, подтвердив, что «Антропи не имеет ни одной задней двери или удаленного выключателя», и что сотрудники Антропи «не могут, например, войти в систему, принадлежащую Министерству обороны, чтобы изменить или отключить модели во время операции; технологии просто не работают таким образом».
Обновления и контроль
Рамасами пояснил, что любые обновления, которые Антропи может предложить, будут осуществляться с согласия правительства и поставщика облачных услуг, в данном случае Amazon Web Services, отметив, что компания не может получить доступ к маршрутизаторам или данным, которые вводят военные пользователи в Клод.
В своих судебных заявлениях руководство Антропи подтвердило, что не стремится предоставить себе право вето на тактические военные решения. Сара Хек, глава политики компании, в своем заявлении в пятницу отметила, что Антропи предложила включить в контракт, представленный 4 марта, положение, которое прямо указывает, что она не имеет права контролировать или вето на законные операционные решения Министерства обороны. Она также сказала, что компания была готова принять формулировки, которые решают ее опасения по поводу использования Клод для выполнения смертоносных ударов без человеческого контроля, но переговоры в конечном итоге провалились.
Дополнительные меры Министерства обороны
Со своей стороны, Министерство обороны в своих заявлениях указало, что принимает дополнительные меры для снижения риска цепочки поставок, работая с третьими поставщиками облачных услуг, чтобы гарантировать, что руководство Антропи не сможет вносить односторонние изменения в существующие системы Клод.
Таким образом, продолжающиеся разногласия между Антропи и Министерством обороны подчеркивают важность контроля за технологиями ИИ в контексте национальной безопасности и этических норм, что может иметь долгосрочные последствия для будущего использования таких технологий в военных операциях.