Recenta dispută dintre Pentagon și Anthropic, compania fondată de Dario Amodei, a fost generată de o întâlnire tensionată între oficiali de vârf ai Departamentului Apărării și conducerea companiei. Potrivit unui articol publicat de The Washington Post, discuțiile au atins un subiect extrem de serios: posibilitatea lansării unei rachete balistice intercontinentale asupra Statelor Unite.
În acest context, oficialii americani au fost curioși să afle dacă sistemul AI dezvoltat de Anthropic, cunoscut sub numele de Claude, ar putea ajuta în detectarea și interceptarea rapidă a unei astfel de amenințări. Răspunsul lui Amodei a fost considerat evaziv și a stârnit iritarea oficialilor Pentagonului, care s-au așteptat la un angajament mai ferm, iar directorul companiei a sugerat: „ne-ați putea suna și am rezolva situația”.
Anthropic a respins vehement această interpretare, declarând că informațiile vehiculate sunt „complet false” și că tehnologia sa este destinată utilizării în scopuri de apărare antirachetă.
Disputa s-a extins rapid dincolo de interceptarea rachetelor, Pentagonul solicitând ca sistemul Claude să fie utilizat pentru „toate scopurile legale”, o formulare care ar putea include arma autonomă și supravegherea extinsă. Oficialii au asigurat că nu intenționează să efectueze supraveghere internă în masă și că AI-ul nu va avea puterea de a decide lansarea armelor nucleare. Sean Parnell, purtătorul de cuvânt al Pentagonului, a descris solicitarea ca fiind „simplă și de bun-simț”, subliniind că un refuz din partea Anthropic ar putea compromite operațiuni militare esențiale.
În contrast, Amodei a afirmat că tehnologia actuală nu este suficient de sigură pentru a fi integrată în arme autonome. El a subliniat că, în anumite condiții, AI poate submina valorile democratice, afirmând că utilizările legate de arme autonome și supravegherea extinsă nu au fost incluse niciodată în contractele anterioare cu Departamentul Apărării și nu ar trebui să fie incluse nici în prezent.
Conflictul a escaladat rapid, culminând cu un anunț din partea lui Donald Trump, care a cerut agențiilor federale să înceteze utilizarea tehnologiei Anthropic. Pentagonul a clasificat compania drept un „risc pentru lanțul de aprovizionare”, o etichetă extrem de gravă în contextul securității naționale. Trump a stipulat o perioadă de tranziție de șase luni pentru agenții de a renunța la produsele Anthropic, avertizând că neconformarea va atrage consecințe serioase. Această decizie a fost o lovitură semnificativă pentru start-up-ul care, până de curând, colabora strâns cu Departamentul Apărării.
Oficialii americani au asigurat că deciziile legate de arme nucleare vor rămâne întotdeauna sub controlul uman, stipulând că va exista „un om în buclă”. Totuși, influența unui sistem AI în procesul decizional poate fi considerabilă, mai ales dacă acesta recomandă acțiuni sau identifică ținte.
Această dispută, deși poate părea distantă pentru alte regiuni ale lumii, are implicații profunde. Statele Unite investesc masiv în integrarea inteligenței artificiale în domeniul militar, utilizând AI pentru analize de informații, planificare operațională și securitate cibernetică. Întrebarea esențială pentru dezvoltatorii de la Anthropic este cât de departe ar trebui să se extindă utilizarea tehnologiei lor în scopuri militare.
Conflictele dintre Pentagon și Anthropic nu se limitează la aspectele tehnice sau contractuale; acestea au evoluat într-o confruntare politică despre cine va controla viitorul tehnologiei militare. Pe de o parte, guvernul invocă securitatea națională, în timp ce pe de altă parte, companiile private se tem că produsele lor ar putea fi utilizate în moduri pe care le consideră periculoase sau nedemocratice.
În spatele acestui conflict se află o dilemă fundamentală: dacă inteligența artificială devine suficient de avansată pentru a influența deciziile de război, cine ar trebui să stabilească limitele? Ar trebui să fie guvernul, invocând necesitatea securității, sau dezvoltatorii, pledând pentru responsabilitate?


