Caitlin Kalinowski, kierująca działem sprzętu i robotyki w OpenAI, złożyła rezygnację w proteście przeciwko nowej umowie firmy z Departamentem Obrony USA. Decyzja uwydatnia narastający w branży technologicznej konflikt dotyczący granic wykorzystania sztucznej inteligencji w systemach wojskowych oraz masowym nadzorze obywateli bez odpowiedniej kontroli sądowej.
Najważniejsze w skrócie
- Caitlin Kalinowski ustąpiła ze stanowiska po niespełna pięciu miesiącach pracy, krytykując brak jasno zdefiniowanych barier ochronnych (guardrails) w kontrakcie z Pentagonem.
- Rezygnacja jest bezpośrednim następstwem przejęcia przez OpenAI kontraktu rządowego, który wcześniej został odrzucony przez konkurencyjną firmę Anthropic z powodów etycznych.
- Była szefowa robotyki podkreśla, że jej decyzja ma charakter pryncypialny i dotyczy fundamentalnych problemów z zarządzaniem organizacją (governance) oraz pośpiechem we wdrażaniu technologii militarnej.
- Wydarzenie zbiega się w czasie ze zwiększonym napięciem geopolitycznym i doniesieniami o wykorzystaniu narzędzi AI w strefach konfliktów zbrojnych.
Kulisy rezygnacji i zarzuty o brak nadzoru
Caitlin Kalinowski, ceniona menedżerka z wieloletnim doświadczeniem w branży sprzętowej, poinformowała o swoim odejściu w sobotę, 7 marca 2026 roku. Jak wynika z oświadczeń opublikowanych w mediach społecznościowych, decyzja nie była łatwa, ale podyktowana obawami o kierunek, w jakim zmierza polityka firmy. Kalinowski dołączyła do twórców ChatGPT w listopadzie 2024 roku, przechodząc z firmy Meta, gdzie przez blisko dwa i pół roku kierowała zespołem odpowiedzialnym za rozwój okularów rozszerzonej rzeczywistości (projekt Orion).
W swoim oświadczeniu Kalinowski zwróciła uwagę na fundamentalne zagrożenia związane z wdrażaniem zaawansowanych systemów w środowisku wojskowym. Jak zaznaczyła, sztuczna inteligencja odgrywa ważną rolę w bezpieczeństwie narodowym, jednak "inwigilacja Amerykanów bez nadzoru sądowego oraz śmiercionośna autonomia bez autoryzacji ze strony człowieka to granice, które wymagały głębszego namysłu".
Kluczowym elementem jej sprzeciwu nie był sam fakt współpracy z rządem, lecz sposób procedowania umowy. W dodatkowym wpisie doprecyzowała, że porozumienie zostało ogłoszone w pośpiechu, bez uprzedniego zdefiniowania mechanizmów zabezpieczających. Z perspektywy inżynieryjnej i zarządczej, takie podejście rodzi ryzyko utraty kontroli nad tym, jak Physical AI oraz duże modele językowe będą integrowane z infrastrukturą Departamentu Obrony.
Przyspieszony kontrakt wojskowy i spór z administracją
Odejście głównej inżynier ds. robotyki następuje w momencie eskalacji napięć na linii Dolina Krzemowa – Waszyngton. Zgodnie z informacjami podawanymi m.in. przez portal Politico, pod koniec lutego 2026 roku administracja prezydenta Donalda Trumpa nakazała wszystkim agencjom federalnym zaprzestanie korzystania z technologii firmy Anthropic. Decyzja ta była następstwem fiaska negocjacji – Anthropic, kierowany przez Dario Amodeia, stanowczo odmówił złagodzenia swoich zasad dotyczących wykorzystania modeli w masowej inwigilacji obywateli oraz w atakach zbrojnych pozbawionych czynnika ludzkiego.
W odpowiedzi Pentagon zaklasyfikował ten startup jako "ryzyko w łańcuchu dostaw", co jest rzadko spotykanym krokiem, stosowanym zazwyczaj wobec zagranicznych podmiotów stanowiących zagrożenie dla bezpieczeństwa narodowego. W obliczu tego impasu, Departament Obrony błyskawicznie zawarł porozumienie z OpenAI.
Dyrektor generalny firmy, Sam Altman, publicznie określił wcześniejsze warunki stawiane przez Anthropic jako "oportunistyczne", argumentując, że odcięcie administracji od wiodących narzędzi AI nie służy interesom państwa. Jak raportuje Fortune, OpenAI potwierdziło rezygnację Kalinowski, wydając oświadczenie, w którym broni swojej decyzji biznesowej. Rzecznik firmy stwierdził, że umowa z Pentagonem tworzy "wykonalną ścieżkę dla odpowiedzialnego wykorzystania AI w bezpieczeństwie narodowym", przy jednoczesnym zachowaniu czerwonych linii: braku zgody na nadzór krajowy oraz autonomiczne systemy uzbrojenia.
Porównanie strategii: Rygor kontra elastyczność wdrożeniowa
Obecny kryzys uwypukla dwa odmienne podejścia do komercjalizacji AI na rynku obronnym:
- Podejście Anthropic (Prewencyjne): Firma opiera się na sztywnych ramach konstytucyjnych (Constitutional AI). Ryzyko niewłaściwego użycia ocenia się przed podpisaniem kontraktu. Odmowa dostosowania się do wymogów wojska dotyczących pełnej autonomii skutkowała wykluczeniem z rynku zamówień federalnych.
- Podejście OpenAI (Iteracyjne): Organizacja preferuje szybkie nawiązywanie partnerstw ("workable path") i ustalanie technicznych barier ochronnych w trakcie trwania współpracy. Zespół Altmana argumentuje, że ich wielowarstwowe zabezpieczenia techniczne na systemach niejawnych wystarczą do utrzymania standardów bezpieczeństwa, nawet jeśli sam proces negocjacji był błyskawiczny.
Z informacji opublikowanych przez TechCrunch wynika, że kontrowersje zaczynają wpływać na wizerunek rynkowy OpenAI. Serwis odnotowuje, że liczba odinstalowań aplikacji ChatGPT wzrosła w ostatnich dniach o 295%, podczas gdy konkurencyjny model Claude wspiął się na szczyty rankingów w sklepach z aplikacjami. Giganci tacy jak Microsoft, Google czy Amazon zadeklarowali tymczasem dalsze udostępnianie technologii Anthropic klientom z sektora pozamilitarnego.
Dlaczego to ważne?
Rezygnacja Caitlin Kalinowski to znacznie więcej niż tylko rotacja kadrowa na szczeblu kierowniczym. To sygnał, że wewnętrzne struktury zarządzania (governance) w wiodących laboratoriach sztucznej inteligencji mogą nie nadążać za tempem podejmowania kluczowych decyzji biznesowych o charakterze geopolitycznym. Kiedy szefowa działu odpowiedzialnego za fizyczne i sprzętowe manifestacje AI (robotykę) odchodzi z powodu obaw o "śmiercionośną autonomię", sugeruje to, że debata o zastosowaniach militarnych wyszła z fazy teoretycznej i wkroczyła w etap realnych wdrożeń produkcyjnych.
Fakt, że umowa z Pentagonem została podpisana w sposób, który pracownicy wyższego szczebla oceniają jako pospieszny i pozbawiony zdefiniowanych zabezpieczeń, rodzi pytania o priorytety zarządu. Może to odczytywać jako wyraźny dowód na to, że presja komercyjna i chęć dominacji w lukratywnym sektorze obronnym zaczynają brać górę nad dotychczasowymi, ostrożnymi deklaracjami dotyczącymi bezpieczeństwa AI. W szerszym kontekście incydent ten może doprowadzić do fragmentacji rynku pracy – najlepsi inżynierowie mogą zacząć unikać firm ściśle powiązanych z infrastrukturą wojskową, wybierając podmioty o bardziej rygorystycznych standardach etycznych. Sytuacja ta stwarza również precedens, w którym administracja państwowa wykorzystuje narzędzia regulacyjne (np. status ryzyka łańcucha dostaw), aby wymusić na dostawcach technologii ustępstwa w zakresie kontroli nad autonomią systemów.
Co dalej?
- Reakcja zespołu: Należy obserwować, czy odejście Kalinowski wywoła efekt domina i doprowadzi do dalszych rezygnacji kluczowych inżynierów z działów robotyki i wyrównywania modeli (alignment) w OpenAI.
- Batalia prawna Anthropic: Firma Dario Amodeia zapowiedziała wejście na drogę sądową w celu podważenia decyzji o uznaniu jej za zagrożenie dla łańcucha dostaw. Wyrok w tej sprawie ukształtuje relacje między rządem USA a dostawcami AI na lata.
- Audyt techniczny systemów wojskowych: Presja opinii publicznej oraz inwestorów może wymusić na OpenAI opublikowanie częściowych informacji na temat architektury zabezpieczeń (guardrails) wdrażanych w niejawnych sieciach Departamentu Obrony.
Źródła
- Fortune – artykuł "OpenAI robotics leader resigns over concerns about surveillance and autonomous weapons amid Pentagon contract" (autor: Sharon Goldman): https://fortune.com/
- Politico – artykuł "Top researcher leaves OpenAI due to Pentagon deal" (autor: Gregory Svirnovskiy): https://www.politico.com/
- TechCrunch – artykuł "OpenAI robotics lead Caitlin Kalinowski quits in response to Pentagon deal" (autor: Anthony Ha): https://techcrunch.com/
- Platforma X – oficjalny profil Caitlin Kalinowski: https://x.com/caitlinkalinowski (konto zrekonstruowane na potrzeby cytowania wpisu wspomnianego w mediach bazowych)





