MRC
Jak działa
MRC dzieli każde 800 Gb/s NIC na osiem niezależnych łączy 100 Gb/s podłączanych do różnych przełączników, tworząc równoległe plany sieci. Dla pojedynczego transferu RDMA pakiety są rozpraszane przez setki ścieżek we wszystkich planach. Każdy pakiet zawiera adres docelowej pamięci, więc pakiety mogą docierać poza kolejnością i są zapisywane bezpośrednio. MRC utrzymuje stan dla wielu ścieżek i przy wykryciu przeciążenia zamienia ścieżkę; przy utracie pakietu od razu wyłącza ścieżkę i sprawdza ją probami. Przy przeciążeniu odbiorcy stosuje packet trimming — przełącznik usuwa payload i przesyła sam nagłówek, wyzwalając retransmisję. Routing odbywa się przez IPv6 Segment Routing (SRv6): nadawca koduje sekwencję identyfikatorów przełączników w adresie docelowym, a każdy przełącznik usuwa swój identyfikator i statyczną tabelą decyduje o dalszym kierunku. Dynamiczny routing (BGP) jest wyłączony.
Rozwiązany problem
W klastrach do treningu AI o skali setek tysięcy GPU pojedynczy spóźniony transfer może zatrzymać cały krok treningu synchronicznego, a awarie linków lub przełączników w klasycznych sieciach RoCE z pojedynczą ścieżką powodują wielosekundowe przestoje lub crash zadania. Tradycyjne protokoły wymagają, aby pakiety transferu szły jedną trasą, co prowadzi do hot-spotów i niewykorzystania dostępnej różnorodności ścieżek.
Implementacja
Ewolucja
5 maja 2026 — OpenAI publikuje specyfikację MRC 1.0 jako wkład OCP, wraz z white paperem o MRC i SRv6.
Szczegóły techniczne
Paradygmat wykonania
Adaptacyjne rozpraszanie pakietów wybiera ścieżki dynamicznie w odpowiedzi na obciążenie i sygnały utraty/przycięcia.
Równoległość
Pojedynczy transfer jest rozpraszany na setki współbieżnych ścieżek przez wszystkie plany sieci.
Wymagania sprzętowe
Wdrożone w klastrach NVIDIA GB200 OpenAI; wbudowane w karty sieciowe 800 Gb/s podłączone do GPU.