Antropický obnovuje spolupráci s Pentagonem po počátečním přerušení

18

Anthropic, společnost stojící za chatbotem Claude, se zdá být připravena obnovit své partnerství s ministerstvem obrany USA, a to i přes předchozí pozastavení rozhovorů kvůli vojenským aplikacím její technologie. Obrat následoval po hrozbách ze strany úředníků, aby označili Anthropic za národní bezpečnostní hrozbu, což ve skutečnosti vyvíjelo tlak na společnost, aby přehodnotila svůj postoj.

Počáteční konflikt a antropické požadavky

Konflikt začal poté, co společnost Anthropic udělila Pentagonu kontrakt ve výši 200 milionů dolarů, ale následně požadovala výslovné záruky proti použití svých modelů AI pro domácí sledování nebo vývoj autonomních zbraní. Trumpova administrativa se těchto podmínek vzdala a prosadila právo používat technologii pro jakýkoli „zákonný“ účel. To způsobilo zhroucení jednání a ministr zahraničí Pete Hegseth dokonce pohrozil prohlášením Antropie za riziko dodavatelského řetězce. Prezident Trump veřejně kritizoval společnost jako „radikální levici“ a nařídil šestiměsíční zákaz používání nástrojů Anthropic pro federální účely.

Změna pozice a probíhající vyjednávání

Generální ředitel společnosti Anthropic Dario Amodei podle Financial Times znovu otevřel rozhovory, aby se vyhnul tomu, aby byl považován za riziko dodavatelského řetězce. V současné době probíhají jednání s náměstkem ministra obrany Emilem Michaelem, který nedávno označil Amodeie za „lháře“ s „Božím komplexem“. V interní zprávě Amodei uvedl, že Pentagon souhlasil s přijetím současných podmínek Anthropic, pokud bude ze smlouvy odstraněna jedna fráze týkající se „analýzy hromadně shromažďovaných dat“.

Dohoda OpenAI a antropická kritika

Načasování se shoduje s nedávnou dohodou OpenAI s americkou vládou o nasazení svých nástrojů AI pro vojenské účely. Interní e-maily Anthropic údajně zesměšňovaly generálního ředitele OpenAI Sama Altmana, obviňovaly ho z „bezpečnostní manipulace“ a naznačovaly, že zaměstnanci OpenAI byli „naivní“, když věřili tvrzením společnosti o nesledování.

Možné důsledky

Pokud bude dosaženo nové dohody, americká armáda bude pravděpodobně nadále používat antropickou technologii, která se údajně již používá při operacích včetně úderů v Íránu. Situace poukazuje na rostoucí napětí mezi společnostmi s umělou inteligencí a vládami ohledně etických a bezpečnostních obav souvisejících s vojenskými aplikacemi umělé inteligence.

Obnovení těchto jednání podtrhuje významný vliv, který mají vlády na společnosti vyvíjející AI, zvláště když jsou v sázce zájmy národní bezpečnosti. Tato dynamika zpochybňuje budoucnost vývoje AI a její potenciální vhodnost pro vojenské účely, i když to znamená překročení původních etických hranic.