RobocikowoRobocikowo
1 maja 2026 · 5 min lekturygithub-copilotper-token billingai credits

GitHub Copilot przechodzi na model per-token — koniec ryczałtu dla programistów

Okładka: GitHub Copilot przechodzi na model per-token — koniec ryczałtu dla programistów

Od 1 czerwca 2026 roku GitHub Copilot porzuca dotychczasowy model abonamentowy oparty na „Premium Requests" i przechodzi na rozliczenie per-token. Zmiana jest zgodna z kierunkiem obranym przez Anthropic i OpenAI wobec klientów enterprise, ale po raz pierwszy przenosi tę logikę bezpośrednio na rynek programistów-indywidualnych i małych zespołów.

Najważniejsze w skrócie

  • Od 1 czerwca 2026: GitHub Copilot rozlicza zużycie modeli LLM w tokenach, nie w liczbie zapytań
  • Nowa waluta: „AI Credits" — 1 kredyt = 1 cent USD; subskrybent Pro ($10/mies.) otrzymuje 1 000 kredytów
  • Uzupełnienia kodu (code completions) i sugestie Next Edit pozostają bezpłatne
  • Uber wydał cały roczny budżet AI na 2026 rok już w ciągu kilku pierwszych miesięcy roku — 11% zmian w kodzie pochodzi od agentów AI
  • Zmiana odzwierciedla przemysłowy trend: Anthropic i OpenAI przeszły na billing per-token dla klientów enterprise

Koniec „płaskiej" opłaty — co się zmienia

Do tej pory użytkownik GitHub Copilot otrzymywał pulę „Premium Requests". Każde zapytanie — czy to wielogodzinne refaktorowanie dużego projektu, czy krótka odpowiedź na pytanie dotyczące składni — odejmowało jedną jednostkę z puli. Model był prosty, ale ekonomicznie niekonsekwentny: Copilot de facto subsydiował złożone, kosztowne zadania kosztem Microsoft i własnej marży.

Nowy model działa jak OpenAI API czy Anthropic Claude API — zużycie jest mierzone w tokenach: wejście (prompt), wyjście (odpowiedź) i dane w pamięci podręcznej modelu (cache). Im dłuższy kod lub opis zadania, tym więcej tokenów. Im bardziej zaawansowany model, tym wyższy koszt jednostkowy.

Token to z grubsza trzy czwarte słowa w tekście naturalnym. W praktyce 10 000 słów kodu odpowiada 12–13 tysiącom tokenów. Deweloper, który poprosi Copilota o przeanalizowanie całego repozytorium, zużyje kilkukrotnie więcej kredytów niż ten, który zadaje krótkie pytania o składnię.

Tabela kredytów i progi abonamentów

GitHub utrzymuje dotychczasowe poziomy cenowe, ale zmienia jednostkę rozliczeniową. Subskrybent planu Copilot Pro (10 USD miesięcznie) otrzymuje 1 000 kredytów — równowartość 10 dolarów przy założeniu, że 1 kredyt = 1 cent. Liczba tokenów per kredyt zależy od czterech zmiennych: wybranego modelu LLM, proporcji wejścia do wyjścia, rozmiaru cache oraz rodzaju żądanej funkcji.

Skutek jest taki, że deweloper korzystający głównie z autouzupełnień i prostych pytań prawdopodobnie nie przekroczy miesięcznego limitu. Natomiast ktoś, kto intensywnie korzysta z agentów kodowania na dużych bazach kodu, może wyczerpać pulę szybciej niż w poprzednim modelu — i będzie zmuszony dokupić dodatkowe kredyty.

Sygnał z rynku enterprise: sprawa Ubera

Najtrafniejszą ilustracją skali problemu jest przypadek Ubera, który według The Information wydał już cały roczny budżet AI na 2026 rok, choć jesteśmy w jego pierwszych miesiącach. CTO firmy ujawnił, że 11% zmian w kodzie Ubera jest teraz generowanych przez modele AI — przede wszystkim przez agenty oparte na Anthropic's Claude.

To zjawisko nie jest odosobnione. W miarę jak systemy wieloagentowe (multi-agent) stają się standardem w zespołach deweloperskich, koszt tokenów rośnie nieliniowo — agent nie tylko odpowiada na pytania, lecz samodzielnie planuje, weryfikuje i iteruje, generując przy każdym kroku nowe wywołania modelu. Przy rozliczeniu per-token każdy krok jest widoczny w rachunku.

Dlaczego Microsoft nie mógł subsydiować w nieskończoność

W odróżnieniu od Anthropic i OpenAI, które operują na rynku API i od początku stosują model per-token, Microsoft przez lata mógł sobie pozwolić na subsydiowanie Copilota z przychodów z oprogramowania i Azure. Intensywny wzrost adopcji — szczególnie agentów kodowania pracujących autonomicznie na dużych repozytoriach — sprawił jednak, że koszty obliczeniowe przerosły to, co dało się wchłonąć w modelu ryczałtowym.

Co ważne, GitHub przyznaje, że do momentu zmiany użytkownicy mogli de facto „zużywać" od trzech do ośmiu razy więcej tokenów, niż wynikałoby z ich miesięcznej płatności. Innymi słowy, platforma działała przez lata ze świadomą dopłatą do kosztów operacyjnych.

Efekt uboczny: bariera dla nowych użytkowników

Zmiana modelu rozliczeniowego ma jedną istotną konsekwencję uboczną: tworzy barierę psychologiczną dla eksploracji. Dotychczas nowy użytkownik Copilota mógł swobodnie testować różne modele, zadawać złożone pytania i budować intuicję dotyczącą narzędzia. Od czerwca każde głębsze zadanie będzie miało mierzalny koszt w kredytach.

To odbiera narzędziu część jego atrakcyjności jako środowiska do nauki. Warto porównać to z podejściem Cursora, który stosuje hybrydowy model: pewna liczba zaawansowanych zapytań jest wliczona w abonament, nadmiar jest płatny per-token.

Dlaczego to ważne dla rynku AI

GitHub Copilot jest produktem, który zapoznał z asystentami AI koderów, którzy nigdy wcześniej nie korzystali z OpenAI API ani Anthropic Claude API. Przejście na billing per-token to de facto koniec nieograniczonego „probierza" AI dla programistów — i pierwsze masowe zetknięcie tej grupy użytkowników z ekonomią tokenów.

Dla firm wdrażających agentyczne systemy AI — szczególnie do zadań autonomicznego kodowania i przeglądu kodu — zmiana ta wymusza rewizję założeń kosztowych. Koszt pracy agenta nie jest już kosztem abonamentu; jest funkcją liczby iteracji, długości kontekstu i wyboru modelu. Dla CTO takich firm jak Uber, które pchają 11% zmian kodu przez modele AI, precyzyjne śledzenie tych kosztów staje się kwestią budżetową pierwszego rzędu.

Co dalej?

  • Zmiana wchodzi w życie 1 czerwca 2026 — użytkownicy mają niecały miesiąc na adaptację i ewentualną zmianę nawyków korzystania z Copilota Codex — nowy agent kodowania OpenAI działający w tle — działa wyłącznie na modelu per-token; kierunek ten staje się standardem branżowym
  • Oczekiwać można kolejnych firm SaaS AI przechodzących na podobną logikę rozliczeniową w ciągu najbliższych miesięcy

Źródła

Udostępnij ten artykuł

Czytaj następny

NewsInvalid Date

Powiązane artykuły