Google udostępniło Departamentowi Obrony USA swoje modele AI do pracy w sieciach niejawnych — dzień po tym, jak Anthropic przegrało spór z Pentagonem i zostało przez niego oficjalnie zakwalifikowane jako zagrożenie dla łańcucha dostaw. Decyzja Google domknęła szerszy obraz: w ciągu tygodni po odmowie Anthropica, Pentagon pozyskał dostęp do modeli AI od trzech dużych dostawców — OpenAI, xAI i teraz Google.
Najważniejsze w skrócie
- Google udostępniło modele AI Pentagonowi do wszystkich zgodnych z prawem zastosowań na sieciach niejawnych, według doniesień WSJ i TechCrunch z 28 kwietnia 2026.
- Umowa zawiera klauzulę o braku intencji użycia do masowej inwigilacji i autonomicznego uzbrojenia, choć jej egzekwowalność prawna jest niejasna.
- Decyzja Google poprzedziło ponad 950 pracowników firmy, którzy podpisali list otwarty wzywający CEO Sundara Pichaia do odrzucenia kontraktu.
- Anthropic jako pierwsza amerykańska firma w historii otrzymała od Pentagonu oznaczenie „supply-chain risk" po odmowie przyznania nieograniczonego dostępu do Claude'a.
- OpenAI i xAI podpisały podobne umowy wcześniej; Google jest trzecim dużym laboratorium AI, które to zrobiło.
Umowa, którą poprzedził spór
Przez kilka tygodni na przełomie lutego i marca 2026 roku Anthropic prowadziło z Departamentem Obrony spór o warunki dostępu do swoich modeli. Pentagon chciał nieograniczonego dostępu do Claude'a — w tym do zastosowań związanych z masową inwigilacją wewnętrzną i w pełni autonomicznymi systemami broni bez udziału człowieka w pętli decyzyjnej. CEO Dario Amodei odmówił, argumentując, że zaawansowane modele AI nie są wystarczająco niezawodne do takich zastosowań bez nadzoru operatora.
Odpowiedź Pentagonu była bezprecedensowa: Anthropic zostało oficjalnie oznaczone jako „supply-chain risk" — kategoria zazwyczaj zarezerwowana dla podmiotów z wrogich państw. Oznaczenie oznaczało, że każda firma lub agencja współpracująca z Pentagonem musiała potwierdzić, że nie używa modeli Anthropica. Firma zakwestionowała tę decyzję na drodze sądowej; sąd udzielił jej tymczasowego nakazu wstrzymującego skutki oznaczenia w trakcie postępowania, jak podaje TechCrunch.
Tego samego dnia, gdy spór Anthropica z Pentagonem stał się publiczny, OpenAI ogłosiło własną umowę z Departamentem Obrony — przyznającą dostęp do modeli do „wszelkich zgodnych z prawem celów". CEO Sam Altman przyznał później, że deal był „zdecydowanie pośpieszny" i że „optics nie wyglądają dobrze". Kilka tygodni po OpenAI podobną umowę zawarło xAI Elona Muska.
Google dołącza jako trzeci
Według doniesień The Information, które jako pierwsze opisało sprawę, a następnie TechCrunch i Wall Street Journal, Google zgodziło się udostępnić Departamentowi Obrony swoje modele AI na sieciach niejawnych, dopuszczając „wszelkie zgodne z prawem zastosowania". Umowa zawiera sformułowania analogiczne do tych w kontrakcie z OpenAI — Google deklaruje brak intencji użycia modeli do masowej inwigilacji wewnętrznej lub w autonomicznych systemach broni. WSJ zaznacza jednak, że nie jest jasne, czy zapisy te są prawnie wiążące lub egzekwowalne.
Google weszło w ten kontrakt mimo wyraźnego sprzeciwu części własnych pracowników. Ponad 950 zatrudnionych — według danych serwisu notdivided.org, który weryfikuje podpisy — podpisało list otwarty wzywający Sundara Pichaia do odrzucenia umowy. Sygnatariusze, wśród których według doniesień są liderzy z Google DeepMind i działu Cloud, apelowali, by AI nie było dostępne do „szkodliwych i niebezpiecznych" celów: autonomicznej broni i masowej inwigilacji. „Dzisiaj wzywamy cię, Sundar, abyś działał zgodnie z wartościami, na których ta firma została zbudowana, i odmówił sklasyfikowanych kontraktów" — brzmi fragment listu cytowany przez Financial Express.
Google nie odpowiedziało na prośby mediów o komentarz.
Kontekst historyczny: z Project Maven do umów z Pentagonem
Decyzja Google oznacza wyraźne zerwanie z podejściem, które firma przyjęła w 2018 roku. Po tym, jak tysiące pracowników zaprotestowało przeciwko udziałowi w Project Maven — programie Pentagonu wykorzystującym AI do analizy obrazów z dronów — firma wycofała się z kontraktu i opublikowała własne zasady etyczne dotyczące AI w zastosowaniach wojskowych.
W kolejnych latach Google systematycznie wracało jednak do kontraktów rządowych. Firma wygrała część wartego 9 miliardów dolarów (ok. 36 mld zł) kontraktu DoD w lipcu 2025 roku, obok Anthropica, OpenAI i Microsoft. Platforma genAI.mil — nieklasyfikowany system generatywnej AI dla wojska — od grudnia 2025 roku działa na modelach Gemini od Google.
Kontrakty z Pentagonem dotyczą teraz środowisk sklasyfikowanych, co stanowi jakościową zmianę.
Co mówią pracownicy
Napięcie wewnętrzne wokół tej decyzji jest istotnym elementem obrazu. Jak donosi Financial Express, list otwarty do Pichaia został pierwotnie opisany przez Bloomberg Law i miał zostać wysłany 27 kwietnia 2026 roku. Wśród sygnatariuszy mają znajdować się ponad 20 dyrektorów, starszych menedżerów i wiceprezesów.
W liście pracownicy powołują się wprost na argumentację Anthropica: AI nie powinno być używane do „śmiercionośnej broni autonomicznej i masowej inwigilacji". „Wiemy, że te systemy mogą popełniać błędy. Czujemy, że nasza bliskość tej technologii nakłada na nas odpowiedzialność za wskazanie i powstrzymanie jej najbardziej nieetycznych i niebezpiecznych zastosowań" — piszą, według cytatu w Financial Express.
Reakcja zarządu: brak odpowiedzi, umowa podpisana.
Dlaczego to ważne?
Decyzja Google domknęła trwający od kilku tygodni epizod, w którym Pentagon de facto wymusił dostęp do modeli frontier AI przez kombinację presji regulacyjnej i precedensu prawnego. Kluczowy mechanizm był prosty: Anthropic odmówiło, zostało ukarane oznaczeniem, które mogło zagrozić jego pozycji rynkowej; OpenAI i xAI podpisały; Google — mimo protestów własnych pracowników — dołączyło.
Istotnym pytaniem pozostaje egzekwowalność klauzul etycznych. Zarówno w umowie OpenAI, jak i Google znalazły się zapisy o braku użycia do masowej inwigilacji i autonomicznej broni — jednak prawnicy i krytycy wskazują, że efektywną ochronę zapewnia architektura wdrożenia, nie zapis w kontrakcie. OpenAI argumentuje, że dostęp wyłącznie przez cloud API uniemożliwia integrację modeli bezpośrednio z systemami broni — to twierdzenie nie zostało jednak niezależnie zweryfikowane.
Drugi wymiar to precedens instytucjonalny. Anthropic jest pierwszą amerykańską firmą prywatną, którą Pentagon oznaczył jako zagrożenie dla łańcucha dostaw za odmowę wykonania żądań rządowych. Niezależnie od wyniku toczącej się sprawy sądowej, fakt ten zmienia kalkulację każdego dostawcy AI rozważającego odmowę żądań rządu.
Co dalej?
- Sprawa sądowa Anthropic contra Pentagon jest w toku; firma uzyskała tymczasowy nakaz wstrzymujący skutki oznaczenia. Wyrok może określić granice kompetencji Departamentu Obrony wobec prywatnych dostawców AI.
- Kontrakt Google z DoD nie był przedmiotem publicznych deklaracji ze strony firmy — możliwe, że szczegóły zostaną ujawnione przy okazji wyników finansowych za Q1 2026 (zaplanowanych na dzień po publikacji tych doniesień).
- Pytanie o egzekwowalność klauzul etycznych w umowach AI z wojskiem pozostaje otwarte — może stać się przedmiotem regulacji legislacyjnej lub kolejnych postępowań sądowych.
Źródła
- TechCrunch – Google expands Pentagon's access to its AI after Anthropic's refusal – https://techcrunch.com/2026/04/28/google-expands-pentagons-access-to-its-ai-after-anthropics-refusal/
- TechCrunch – It's official: The Pentagon has labeled Anthropic a supply-chain risk – https://techcrunch.com/2026/03/05/its-official-the-pentagon-has-labeled-anthropic-a-supply-chain-risk/
- TechCrunch – OpenAI reveals more details about its agreement with the Pentagon – https://techcrunch.com/2026/03/01/openai-shares-more-details-about-its-agreement-with-the-pentagon/
- TechCrunch – Anthropic wins injunction against Trump administration over Defense Department saga – https://techcrunch.com/2026/03/26/anthropic-wins-injunction-against-trump-administration-over-defense-department-saga/
- Financial Express – 'We call on you, Sundar': Google employees urge CEO to reject classified AI deal with US military – https://www.financialexpress.com/life/technology-we-call-on-you-sundar-google-employees-urge-ceo-to-reject-classified-ai-deal-with-us-military-4220301/lite/
- notdivided.org – list otwarty pracowników Google i OpenAI – https://notdivided.org/
- OpenAI – Our agreement with the Department of War (blog oficjalny) – https://openai.com/index/our-agreement-with-the-department-of-war/




