Firma Anthropic, specjalizująca się w sztucznej inteligencji, przygotowuje się do stawienia czoła rządowi USA w sądzie federalnym w San Francisco, gdzie przedstawi swoje argumenty w sprawie uzyskania tymczasowego zakazu przeciwko Ministerstwu Obrony USA oraz Białemu Domowi. Ten ruch następuje po tym, jak były prezydent USA Donald Trump oraz sekretarz obrony Patty Higgs ogłosili w lutym zerwanie współpracy z firmą po jej odmowie pozwolenia na użycie modelu Claude do nieograniczonych celów militarnych.
Spory dotyczą użycia autonomicznych broni zabójczych bez nadzoru ludzkiego oraz masowej inwigilacji obywateli amerykańskich. W wyniku tego rząd USA sklasyfikował Anthropic jako zagrożenie dla łańcucha dostaw bezpieczeństwa narodowego i nakazał agencjom federalnym zaprzestanie korzystania z modelu Claude.
Przebieg sprawy sądowej
Rozprawa odbędzie się przed sędzią federalnym Ritą Lin, która przyspieszyła termin rozprawy z 3 kwietnia na wtorek. Anthropic dąży do zakwestionowania swojej klasyfikacji jako zagrożenia dla łańcucha dostaw, a współzałożyciel i dyrektor generalny Dario Amodei stwierdził, że firma nie ma innego wyboru, jak tylko walczyć w sądzie.
9 marca Anthropic złożyła dwa pozwy przeciwko rządowi z powodu swojej klasyfikacji. Jeden z nich dotyczy przeglądu klasyfikacji zgodnie z obowiązującym prawem klasyfikacji Ministerstwa Obrony, gdzie Anthropic twierdzi, że ta klasyfikacja jest "bezprecedensowa i nielegalna", ponieważ historycznie stosowano ją tylko wobec zagranicznych przeciwników, takich jak Huawei, i nie można jej legalnie stosować wobec krajowej firmy z powodu sporu politycznego.
Tło i kontekst
Firma Anthropic została założona w 2020 roku i zdołała przyciągnąć uwagę Ministerstwa Obrony USA, podpisując umowę wartą 200 milionów dolarów w 2025 roku na wdrożenie swojej technologii w systemach tajnych. Podczas negocjacji Anthropic podkreśliła, że nie chce używać swoich systemów sztucznej inteligencji do masowej inwigilacji, a jej technologia nie była gotowa do wykorzystania w podejmowaniu decyzji o otwarciu ognia.
17 marca Ministerstwo Obrony wyraziło obawy, że Anthropic może próbować "zakłócać swoją technologię lub zmieniać zachowanie swojego modelu" przed lub w trakcie "operacji wojennych", jeśli poczuje, że jej "czerwone linie" zostały przekroczone. Anthropic argumentowała, że te obawy nie pojawiły się podczas negocjacji, lecz tylko w dokumentach rządowych przed sądem.
Konsekwencje i wpływ
Sprawa ta podkreśla wyzwania etyczne i prawne, przed którymi stoją firmy zajmujące się sztuczną inteligencją, oraz stawia pytania o to, kto powinien określać granice tej technologii: firmy technologiczne kierujące się zasadami bezpieczeństwa wewnętrznego, czy organy publiczne działające w imieniu bezpieczeństwa narodowego i interesów geopolitycznych?
Wielu naukowców i badaczy w dziedzinie sztucznej inteligencji, w tym ci z dużych firm takich jak OpenAI, Google i Microsoft, wspiera Anthropic, składając oświadczenia popierające w tej sprawie. W odpowiedzi Ministerstwo Obrony USA skierowało swoje zainteresowanie na współpracę z innymi firmami zajmującymi się sztuczną inteligencją, takimi jak xAI i Google.
Znaczenie dla regionu arabskiego
Sprawa ta ma istotne znaczenie dla regionu arabskiego, gdzie inwestycje w technologie sztucznej inteligencji rosną. Wyniki tej sprawy mogą wpłynąć na to, jak państwa arabskie będą współpracować z firmami zajmującymi się sztuczną inteligencją, zwłaszcza w obliczu wyzwań bezpieczeństwa i politycznych, przed którymi stoją.
Podsumowując, sprawa ta odzwierciedla rosnące napięcia między innowacjami technologicznymi a wymaganiami bezpieczeństwa narodowego, co budzi pytania o przyszłość sztucznej inteligencji na świecie.