Wydaje się, że Anthropic, firma stojąca za chatbotem Claude, jest gotowa odnowić współpracę z Departamentem Obrony USA, pomimo wcześniejszego wstrzymania rozmów ze względu na wojskowe zastosowania jej technologii. Zwrot sytuacji nastąpił po groźbach urzędników uznających Anthropic za zagrożenie dla bezpieczeństwa narodowego, skutecznie wywierając presję na firmę, aby ponownie rozważyła swoje stanowisko.
Początkowy konflikt i wymagania antropiczne
Konflikt rozpoczął się po tym, jak Anthropic przyznał Pentagonowi kontrakt o wartości 200 milionów dolarów, ale następnie zażądał wyraźnych gwarancji, że nie będzie wykorzystywał swoich modeli sztucznej inteligencji do nadzoru krajowego lub opracowywania autonomicznej broni. Administracja Trumpa odstąpiła od tych warunków, potwierdzając prawo do wykorzystania technologii w dowolnym „zgodnym z prawem” celu. Doprowadziło to do zerwania negocjacji, a sekretarz stanu Pete Hegseth zagroził nawet uznaniem firmy Anthropic za ryzyko w łańcuchu dostaw. Prezydent Trump publicznie skrytykował firmę jako „radykalną lewicę” i nakazał sześciomiesięczny zakaz wykorzystywania narzędzi Anthropic do celów federalnych.
Zmiana stanowiska i trwające negocjacje
Według Financial Times dyrektor generalny Anthropic, Dario Amodei, wznowił rozmowy, aby uniknąć uznania go za stwarzającego ryzyko w łańcuchu dostaw. Obecnie toczą się rozmowy z zastępcą sekretarza obrony Emilem Michaelem, który niedawno nazwał Amodei „kłamcą” mającym „kompleks Boga”. W wewnętrznej notatce Amodei powiedział, że Pentagon zgodził się zaakceptować obecne warunki Anthropic, jeśli z umowy zostanie usunięte jedno zdanie odnoszące się do „analizy masowo gromadzonych danych”.
Umowa OpenAI i krytyka antropiczna
Moment ten zbiega się z niedawnym porozumieniem OpenAI z rządem USA w sprawie wdrożenia narzędzi sztucznej inteligencji do celów wojskowych. Wewnętrzne e-maile Anthropic podobno wyśmiewały dyrektora generalnego OpenAI Sama Altmana, oskarżając go o „sfałszowanie zabezpieczeń” i sugerując, że pracownicy OpenAI byli „naiwni”, wierząc w twierdzenia firmy o braku nadzoru.
Możliwe konsekwencje
Jeśli zostanie osiągnięte nowe porozumienie, armia amerykańska prawdopodobnie będzie nadal korzystać z technologii antropicznej, która według doniesień jest już wykorzystywana w operacjach, w tym w strajkach w Iranie. Sytuacja uwydatnia rosnące napięcia między firmami zajmującymi się sztuczną inteligencją a rządami w związku z obawami etycznymi i bezpieczeństwem związanymi z wojskowymi zastosowaniami sztucznej inteligencji.
Wznowienie tych negocjacji podkreśla znaczący wpływ, jaki rządy wywierają na firmy rozwijające sztuczną inteligencję, zwłaszcza gdy w grę wchodzą interesy bezpieczeństwa narodowego. Ta dynamika stawia pod znakiem zapytania przyszłość rozwoju sztucznej inteligencji i jej potencjalną przydatność do celów wojskowych, nawet jeśli oznacza to przekroczenie pierwotnych granic etycznych.














































