Washington - Americké ministerstvo obrany naplnilo svou hrozbu a oficiálně označilo technologickou společnost Anthropic za riziko pro dodavatelský řetězec. Rozhodnutí má okamžitou platnost a zakazuje vládním dodavatelům používat technologie firmy Anthropic při plnění zakázek pro americkou armádu, napsala agentura Reuters.
Ministerstvo ve čtvrtek uvedlo, že "oficiálně informovalo vedení společnosti Anthropic, že firma a její produkty jsou s okamžitou platností považovány za riziko pro dodavatelský řetězec". Společnost Antropic krok potvrdila a uvedla, že se hodlá bránit soudní cestou.
Anthropic působí v oblasti umělé inteligence (AI). Jejím vlajkovým produktem je chatbot Claude, který byl uveden na trh v roce 2023 a od té doby se stal konkurentem modelů jako ChatGPT od OpenAI či Gemini od Googlu.
Firma Anthropic se dostala do sporu s americkou vládou poté, co odmítla umožnit používání svých technologií pro masové sledování domácností a plně autonomní zbraňové systémy. Prezident Donald Trump a ministr obrany Pete Hegseth minulý týden firmu obvinili z ohrožování národní bezpečnosti.
Označení společnosti Anthropic za riziko pro dodavatelský řetězec podle agentury AP zřejmě uzavírá prostor pro další rozhovory mezi firmou a americkou vládou. "Domníváme se, že tento postup není z právního hlediska v pořádku, a nevidíme jinou možnost, než se obrátit na soud," uvedl šéf firmy Dario Amodei.
Společnost Anthropic v uplynulých dnech s americkou vládou jednala. Rozhovory však podle zdroje BBC zkrachovaly mimo jiné kvůli způsobu, jakým prezident Trump a další členové jeho administrativy firmu veřejně kritizovali.










