Business Hi-Tech

Anthropic, compania din spatele chatbot-ului Claude, îşi relaxează politica de siguranţă AI în aceeaşi săptămână în care refuză ultimatumul Pentagonului privind armele autonome şi supravegherea în masă

Anthropic, compania din spatele chatbot-ului Claude,...
25.02.2026, 17:46 194

Anthropic, compania americană de inteligenţă artificială care dezvoltă chatbot-ul Claude, şi-a înlocuit politica de siguranţă cu un cadru mai flexibil, renunţând la angajamentul ferm de a opri antrenarea modelelor AI dacă acestea depăşesc capacitatea companiei de a le controla. Schimbarea vine în aceeaşi săptămână în care Anthropic se află într-un conflict deschis cu Pentagonul, care ameninţă compania cu pierderea unui contract de 200 de milioane de dolari şi cu includerea pe o listă neagră guvernamentală.

Noua politică, numită „Frontier Safety Roadmap", înlocuieşte angajamentele ferme cu obiective publice pe care compania le va evalua periodic. „Mai degrabă decât angajamente ferme, acestea sunt obiective publice faţă de care ne vom nota în mod deschis progresul", a scris Anthropic pe blogul oficial, citat de CNN. Compania a recunoscut că vechea politică, în vigoare din 2023, nu a reuşit să creeze consensul dorit în industrie - ceilalţi dezvoltatori mari de AI nu au adoptat restricţii similare. Mai mult, Anthropic a notat că politica sa era incompatibilă cu climatul politic actual din Washington, orientat împotriva reglementării.

Jared Kaplan, directorul ştiinţific al Anthropic, a declarat pentru Time că decizia a fost luată în numele siguranţei, nu al competiţiei, dar a adăugat: „Nu am simţit, în contextul avansului rapid al AI, că are sens să facem angajamente unilaterale, dacă competitorii merg înainte cu toată viteza."

Anunţul coincide cu un conflict major între Anthropic şi administraţia Trump. Secretarul american al apărării Pete Hegseth i-a dat CEO-ului Anthropic, Dario Amodei, un ultimatum până vineri: fie compania ridică toate restricţiile impuse modelului Claude pentru utilizare militară, fie Pentagonul va anula contractul de 200 de milioane de dolari, va invoca Defense Production Act (o lege din anii 1950 care permite guvernului să oblige companii private să producă bunuri considerate critice pentru securitatea naţională) şi va desemna Anthropic drept „risc pentru lanţul de aprovizionare" - o etichetă folosită în mod obişnuit pentru adversari străini, care ar interzice tuturor contractorilor militari să mai folosească tehnologia companiei, potrivit CNN, Axios, NPR şi CNBC.

Anthropic refuză să cedeze pe două puncte: utilizarea AI pentru controlul autonom al armelor şi supravegherea în masă a cetăţenilor americani. Potrivit surselor citate de publicaţiile americane, Amodei a reiterat aceste linii roşii în întâlnirea de marţi cu Hegseth, iar compania nu intenţionează să-şi schimbe poziţia. „Un AI puternic care analizează miliarde de conversaţii de la milioane de oameni ar putea măsura sentimentul public, detecta focare de neloialitate în formare şi le-ar putea elimina înainte să crească", a scris Amodei într-un eseu luna trecută, explicând de ce consideră supravegherea în masă o linie roşie.

Întâlnirea a fost descrisă drept cordială, dar tensionată. Hegseth a lăudat calitatea produselor Anthropic, dar a insistat că nicio companie privată nu poate dicta Pentagonului condiţiile în care ia decizii operaţionale. Claude este în prezent singurul model AI autorizat pentru reţelele clasificate ale armatei americane şi este considerat cel mai avansat şi sigur model pentru aplicaţii militare sensibile, conform NPR. Celelalte trei companii cu contracte similare - OpenAI, Google şi xAI (Elon Musk) - au acceptat deja să permită utilizarea modelelor lor în orice scenariu „legal".

Hegseth şi alţi oficiali ai administraţiei Trump au calificat poziţia Anthropic drept „AI woke", un termen pe care experţii în AI îl consideră vag şi care pare să desemneze orice măsură de siguranţă aplicată modelelor AI, potrivit NPR.
Anthropic, fondată în 2021 de foşti angajaţi OpenAI preocupaţi de riscurile AI, a închis recent o rundă de finanţare de 30 de miliarde de dolari la o evaluare de 380 de miliarde de dolari şi are peste 500 de clienţi enterprise care cheltuiesc mai mult de 1 milion de dolari anual, potrivit CNBC.

 

Pentru alte știri, analize, articole și informații din business în timp real urmărește Ziarul Financiar pe WhatsApp Channels

Urmează ZF ESG Summit 2026

Urmează ZF ESG Summit 2026
Principalele valute BNR - joi, 13:37
EUR
USD
GBP
Azi: 5.0937
Diferență: -0,0236
Ieri: 5.0949
Azi: 4.3629
Diferență: 0,0619
Ieri: 4.3602
Azi: 5.8478
Diferență: -0,1383
Ieri: 5.8559