Ministerstvo uviedlo, že „oficiálne informovalo vedenie spoločnosti Anthropic, že firma a jej produkty sú s okamžitou platnosťou považované za riziko pre dodávateľský reťazec“. Spoločnosť Antropic krok potvrdila a uviedla, že sa plánuje brániť súdnou cestou.
Americké ministerstvo obrany naplnilo svoju hrozbu a oficiálne označilo technologickú spoločnosť Anthropic za riziko pre dodávateľský reťazec. Rozhodnutie má okamžitú platnosť a zakazuje vládnym dodávateľom používať technológie firmy Anthropic pri plnení zákaziek pre americkú armádu.
Anthropic pôsobí v oblasti umelej inteligencie (AI). Jej vlajkovým produktom je chatbot Claude, ktorý bol uvedený na trh v roku 2023 a odvtedy sa stal konkurentom modelov ChatGPT od OpenAI či Gemini od Googlu.
Firma Anthropic sa dostala do sporu s americkou vládou po tom, ako odmietla umožniť používanie svojich technológií pre masové sledovanie domácností a plne autonómne zbraňové systémy. Prezident Donald Trump a minister obrany Pete Hegseth minulý týždeň firmu obvinili z ohrozovania národnej bezpečnosti.
Označenie spoločnosti Anthropic za riziko pre dodávateľský reťazec podľa agentúry AP zrejme uzatvára priestor pre ďalšie rozhovory medzi firmou a americkou vládou. „Domnievame sa, že tento postup nie je z právneho hľadiska v poriadku a nevidíme inú možnosť ako sa obrátiť na súd,“ uviedol šéf firmy Dario Amodei.
Spoločnosť Anthropic v uplynulých dňoch s americkou vládou rokovala. Rozhovory však podľa zdroja BBC skrachovali okrem iného pre spôsob, akým prezident Trump a ďalší členovia jeho administratívy firmu verejne kritizovali.