Disputa a început în urma unei întâlniri între oficiali de rang înalt din Pentagon și Dario Amodei, directorul general al Anthropic. The Washington Post a raportat vineri că șeful tehnologiei din cadrul Departamentului Apărării a prezentat un scenariu extrem: ce s-ar întâmpla dacă o rachetă balistică intercontinentală ar fi lansată împotriva Statelor Unite?
Într-o astfel de situație, fiecare secundă este crucială. Oficialii americani au întrebat dacă sistemul de inteligență artificială al companiei, cunoscut sub numele de Claude, ar putea ajuta armata să detecteze și să intercepteze rapid o astfel de amenințare. Conform sursei citate, răspunsul directorului general al Anthropic a stârnit iritarea oficialilor Pentagonului, acesta afirmând evaziv: „ne-ați putea suna și am rezolva situația”.
Compania a negat însă această versiune, considerând-o „complet falsă” și subliniind că a fost de acord cu utilizarea tehnologiei sale pentru apărarea antirachetă.
Disputa nu s-a limitat la interceptarea rachetelor. Pentagonul a solicitat ca sistemul Claude să fie utilizat pentru „toate scopurile legale”, formulare ce ar putea include arme autonome sau programe extinse de supraveghere.
Oficialii americani au declarat că nu au intenția de a desfășura supraveghere internă în masă și nici de a lăsa inteligența artificială să decidă unilateral lansarea armelor nucleare. „Aceasta este o solicitare simplă, de bun-simț”, a afirmat purtătorul de cuvânt al Pentagonului, Sean Parnell, subliniind că refuzul companiei ar putea „pune în pericol operațiuni militare critice”.
Pe de altă parte, Amodei a susținut că tehnologia actuală nu este suficient de sigură pentru a fi utilizată în sisteme de armament autonom.
„Într-un set restrâns de cazuri, considerăm că inteligența artificială poate submina, nu apăra, valorile democratice”, a declarat el, adăugând că utilizările legate de arme autonome și supraveghere extinsă „nu au fost niciodată incluse în contractele noastre cu Departamentul Apărării și credem că nici acum nu ar trebui incluse”.
După săptămâni de tensiuni și un ultimatum adresat companiei, conflictul a escaladat. Conform Reuters, Donald Trump a anunțat vineri că le cere tuturor agențiilor federale să înceteze utilizarea tehnologiei Anthropic, iar Pentagonul a clasificat compania drept „risc pentru lanțul de aprovizionare” – o etichetă gravă în contextul securității naționale.
Trump a comunicat că agențiile federale vor avea o perioadă de tranziție de șase luni pentru a renunța la produsele companiei, avertizând că, în caz de neconformare, pot urma consecințe serioase. Această decizie reprezintă o lovitură semnificativă pentru start-up-ul care, până recent, avea contracte importante cu Departamentul Apărării și alte instituții federale.
Oficialii americani afirmă că va exista întotdeauna „un om în buclă” în ceea ce privește armele nucleare, ceea ce înseamnă că decizia umană va fi finală. Totuși, chiar și în aceste condiții, dacă un sistem de inteligență artificială recomandă un anumit răspuns sau identifică o țintă, influența sa asupra deciziei poate fi semnificativă.
Deși miza acestei confruntări poate părea îndepărtată pentru alte continente, implicațiile sale sunt profunde. Statele Unite investesc masiv în integrarea inteligenței artificiale în armată, utilizând-o deja pentru analiză de informații, planificare operațională și securitate cibernetică. Întrebarea care se ridică pentru dezvoltatorii de la Anthropic este cât de departe ar trebui să meargă utilizarea tehnologiei create în scopuri militare.
Conflictul dintre Pentagon și Anthropic nu este doar unul tehnic sau contractual. A devenit o confruntare politică deschisă referitoare la cine controlează viitorul tehnologiei militare: statul, invocând securitatea națională, sau companiile private, care se tem că produsele lor ar putea fi utilizate într-un mod pe care îl consideră periculos sau nedemocratic.
Dincolo de termenii tehnici și deciziile executive se află o dilemă fundamentală: dacă inteligența artificială devine suficient de puternică pentru a influența decizii de război, cine stabilește limitele? Guvernul, în numele securității, sau dezvoltatorii, în numele responsabilității?











