Negocierile dintre Anthropic PBC şi Pentagon pentru prelungirea unui contract sunt în impas, din cauza unor condiţii suplimentare pe care compania vrea să le impună asupra modului în care poate fi folosit modelul său Claude, potrivit unei persoane familiarizate cu discuţiile, citate de Bloomberg.
Anthropic cere introducerea unor „guardrails”, măsuri care să limiteze utilizarea Claude în două direcţii sensibile: supravegherea în masă a cetăţenilor americani şi dezvoltarea de arme autonome, care ar putea fi desfăşurate fără implicarea unui om în decizie. Sursa a solicitat anonimatul, deoarece negocierile sunt private. Pentagonul, în schimb, susţine că vrea să poată utiliza Claude atât timp cât implementarea respectă legea. Axios a relatat anterior despre acest dezacord.
Pe măsură ce modelele AI devin mai puternice, creşte şi riscul ca ele să fie folosite pentru dezvoltarea armelor sau pentru colectarea şi analizarea datelor personale. Anthropic se poziţionează drept o companie mai precaută, care încearcă să evite efectele „catastrofale” ale tehnologiei şi afirmă că doreşte să lucreze cu instituţiile guvernamentale în limitele propriilor reguli etice.
În acest scop, compania a creat Claude Gov, o versiune dedicată aparatului de securitate naţională din SUA. Modelul ar avea capabilităţi extinse pentru procesarea şi interpretarea materialelor clasificate, pentru analiza informaţiilor de intelligence şi pentru înţelegerea datelor de securitate cibernetică.
„Anthropic este angajată să folosească AI de frontieră în sprijinul securităţii naţionale a SUA”, a declarat un purtător de cuvânt al companiei. Acesta a adăugat că discuţiile cu Departamentul Apărării sunt „productive” şi purtate „cu bună credinţă”, tocmai pentru a găsi o formulă care să răspundă acestor dileme.
De cealaltă parte, Pentagonul transmite un mesaj ferm. „Relaţia Departamentului Apărării cu Anthropic este în curs de evaluare”, a declarat Sean Parnell, purtător de cuvânt al instituţiei, într-un răspuns transmis prin e-mail. „Naţiunea noastră are nevoie ca partenerii să fie dispuşi să îi ajute pe militarii noştri să câştige în orice luptă. În cele din urmă, este vorba despre trupele noastre şi despre siguranţa poporului american.”
Potrivit unui oficial senior din domeniul apărării, mulţi responsabili din Pentagon privesc Anthropic drept un potenţial risc în lanţul de furnizori. În acest context, Departamentul Apărării ar putea cere contractorilor să certifice că nu folosesc modelele companiei.
Disputa dintre Anthropic şi Pentagon, privind limitele utilizării AI, ar putea avantaja alte companii din industrie. Acelaşi oficial a declarat că dezvoltatori ai altor modele, inclusiv OpenAI (ChatGPT), Alphabet (Google Gemini) şi xAI (Grok), lucrează cu Pentagonul pentru a se asigura că platformele lor pot fi folosite în mod legal.