Compania Anthropic, specializată în inteligența artificială, se pregătește să facă față guvernului american în instanța federală din San Francisco, unde va prezenta argumentele sale pentru a obține o ordonanță preliminară împotriva Departamentului Apărării al Statelor Unite și a Casei Albe. Această acțiune vine după ce fostul președinte american Donald Trump și secretarul apărării Pete Hegseth au anunțat în februarie că au rupt relațiile cu compania, după ce aceasta a refuzat să permită utilizarea modelului său Claude în scopuri militare necontrolate.
Controversele se concentrează pe utilizarea armelor autonome letale fără supraveghere umană, precum și pe supravegherea în masă a cetățenilor americani. În urma acestor evenimente, guvernul american a clasificat Anthropic ca o amenințare la lanțul de aprovizionare al securității naționale și a ordonat agențiilor federale să înceteze utilizarea modelului Claude.
Detalii despre eveniment
Ședința va avea loc în fața judecătoarei federale Rita Lin, care a accelerat data ședinței de la 3 aprilie la marți. Anthropic caută să conteste clasificarea sa ca amenințare la lanțul de aprovizionare, fondatorul și directorul executiv Dario Amodei declarând că compania nu are altă opțiune decât să conteste în instanță.
Pe 9 martie, Anthropic a intentat două acțiuni împotriva guvernului din cauza clasificării sale. Una dintre acestea vizează revizuirea clasificării conform legislației actuale a Departamentului Apărării, unde Anthropic susține că această clasificare este "fără precedent și ilegală", fiind aplicată istoric doar împotriva adversarilor străini, cum ar fi Huawei, și nu poate fi utilizată legal împotriva unei companii locale din cauza unui conflict politic.
Context și fundal
Anthropic a fost fondată în 2020 și a reușit să atragă atenția Departamentului Apărării al Statelor Unite prin semnarea unui contract în valoare de 200 milioane de dolari în 2025 pentru implementarea tehnologiei sale în sisteme secrete. În timpul negocierilor, Anthropic a subliniat că nu dorește să utilizeze sistemele sale de inteligență artificială pentru supravegherea în masă și că tehnologia sa nu era pregătită pentru a fi utilizată în luarea deciziilor de deschidere a focului.
Pe 17 martie, Departamentul Apărării a raportat că este îngrijorat că Anthropic ar putea încerca "să dezactiveze tehnologia sa sau să schimbe comportamentul modelului său" înainte sau în timpul "operațiunilor de război" dacă simte că "linile roșii" au fost depășite. Anthropic a argumentat că aceste îngrijorări nu au apărut în timpul negocierilor, ci doar în documentele guvernului în fața instanței.
Impact și consecințe
Această situație evidențiază provocările etice și legale cu care se confruntă companiile de inteligență artificială și ridică întrebări despre cine ar trebui să stabilească limitele acestei tehnologii: companiile tehnologice ghidate de principii de siguranță internă sau autoritățile publice care acționează în numele securității naționale și intereselor geopolitice?
Mulți oameni de știință și cercetători în domeniul inteligenței artificiale, inclusiv cei de la mari companii precum OpenAI, Google și Microsoft, susțin Anthropic prin prezentarea de memorii de susținere în acest caz. În schimb, Departamentul Apărării al Statelor Unite și-a îndreptat atenția către colaborarea cu alte companii de inteligență artificială, cum ar fi xAI și Google.
Semnificația regională
Această problemă este importantă pentru regiunea arabă, unde investițiile în tehnologiile de inteligență artificială cresc. Rezultatele acestui caz ar putea influența modul în care statele arabe colaborează cu companiile de inteligență artificială, în special în contextul provocărilor de securitate și politice cu care se confruntă.
În concluzie, acest caz reflectă tensiunea crescândă dintre inovația tehnologică și cerințele securității naționale, ridicând întrebări despre viitorul inteligenței artificiale în lume.