Robocikowo>ROBOCIKOWO
4 maja 2026 · 5 min lekturyEka RoboticsVision Force ActionVFA model

Eka Robotics wychodzi z ukrycia — model VFA stawia na siłę, nie na imitację

Eka Robotics wychodzi z ukrycia — model VFA stawia na siłę, nie na imitację

29 kwietnia 2026 r. Eka Robotics — startup z Cambridge, Massachusetts, założony przez profesora MIT Pulkita Agrawala i byłego badacza DeepMind Tuomasa Haarnoję — oficjalnie ogłosiło swoje istnienie, prezentując model fundacyjny Vision-Force-Action (VFA). Zamiast uczyć roboty przez naśladowanie ludzkich ruchów, VFA opiera się na symulacji i czuciu sił — i aspiruje do osiągnięcia zdolności ponadludzkich, nie tylko ludzkich.

Siła jako natywny język fizyki

Nazwa „Eka" pochodzi z sanskrytu — oznacza „jeden" lub „jedność" — i z fińskiego, gdzie znaczy „pierwszy". Symbolika nie jest przypadkowa: Agrawal na platformie X opisał misję firmy jako budowanie „inteligencji dla fizycznego świata w jego natywnym języku: sile."

Dominującym paradygmatem w robotyce 2025–2026 stały się modele Vision-Language-Action — VLA. Stosują je m.in. Physical Intelligence z modelem π0 oraz liczna grupa startupów próbujących powiązać polecenia tekstowe z działaniami robota za pośrednictwem obrazu. Eka twierdzi, że język jest w tym kontekście „użyteczną protezą", która pomija fundamentalną rzeczywistość fizyczną: robot musi czuć, jak obiekt się porusza, jak zmienia masę, jak traci przyczepność — nie tylko go widzieć i rozumieć werbalnie.

VFA dodaje do wizji i akcji trzeci kanał: siłę. W praktyce oznacza to sensorykę dotykową w chwytakach i model obliczeniowy, który przetwarza dane siłowe w czasie rzeczywistym, umożliwiając reaktywne korekty. Firma zaprojektowała własne chwytaki taktylne — nie korzysta ze standardowych komponentów.

Symulacja zamiast imitacji

Kluczową różnicą metodologiczną wobec konkurencji jest źródło danych treningowych. Firmy takie jak Rhoda AI czy część projektów Physical Intelligence polegają na ogromnych zbiorach danych zebranych przez ludzi noszących rękawice teleopetacyjne lub nagrywanych kamerami. Eka stawia na symulację.

W symulatorze o wysokiej wierności fizycznej robot może ćwiczyć zadania przez tysiące godzin procesorowych, samodzielnie generując rozwiązania bez udziału człowieka. Firma twierdzi, że opracowała własne algorytmy, które skutecznie zamykają przepaść sim-to-real — jeden z najtrudniejszych problemów w robotyce ostatniej dekady, polegający na tym, że zachowania wyuczone w środowisku wirtualnym nie przenoszą się na realne warunki fizyczne.

Analogią, po którą sięga sam startup, jest AlphaZero firmy Google DeepMind — system, który nauczył się grać w szachy i Go na poziomie ponadludzkim wyłącznie przez gry z samym sobą, bez danych historycznych. Haarnoja, współtwórca algorytmu Soft Actor-Critic (SAC), jednego z fundamentów nowoczesnego reinforcement learning w robotyce, wnosi dokładnie ten rodzaj wiedzy do projektu.

Demonstracje: co robot faktycznie umie

Na materiałach wideo opublikowanych przez firmę (nagranych w 1/25 prędkości i w normalnym tempie) widać trzy klasy zadań:

Precyzyjny montaż: Robot chwyta żarówkę i wkręca ją w oprawę — zadanie wymagające sub-milimetrowej precyzji i ciągłej regulacji siły. Zbyt mocny uścisk rozbija żarówkę, zbyt słaby ją upuszcza.

Sortowanie improwizowane: Robot pakuje nuggetsy do pojemników na ruchomej taśmie, w tym „rzuca" produkty gdy taśma jedzie zbyt szybko. To poziom szybkości i adaptacji zarezerwowany dotychczas dla pracowników ludzkich.

Odzysk taktylny: Robot wykrywa, że obiekt (pędzel, breloczek z pluszem) zaczyna mu się wyślizgiwać i koryguje uchwyt w czasie rzeczywistym — bez zatrzymania ruchu.

Żadne z tych zadań nie było demonstrowane na specjalnie przygotowanych, ujednoliconych obiektach. Firma podkreśla generalizację: model ma działać na nieznanych obiektach, w nieznanych środowiskach.

Kontekst: pole bitwy „physical AI" w 2026

Eka wchodzi w dobrze obsadzony segment. Physical Intelligence zebrało ponad 400 mln dol. i opublikowało modele π0 oraz π0.7, które pokazują „kompozycjonalną generalizację" — zdolność do łączenia wyuczonych umiejętności w nowych konfiguracjach. Generalist AI, Sunday Robotics i kilkanaście innych startupów próbuje analogicznie skalować dane imitacyjne lub reinforcement learning w świecie rzeczywistym.

Eka wyróżnia się trzema cechami: eksplicytną apozycją wobec VLA (nie „rozszerzamy VLA", lecz „zastępujemy je VFA"), wyłączną koncentracją na symulacji jako źródle danych oraz deklarowaną aspiracją do zdolności ponadludzkich — nie imitacji człowieka.

Brak informacji o finansowaniu to rzucający się w oczy brak. Startup nie ujawnił inwestorów ani wielkości rundy. Przy tym profilu założycieli (Agrawal prowadzi Improbable AI Lab na MIT, Haarnoja jest autorem SAC, który jest podstawą wielu komercyjnych systemów robotycznych) runda seed od wiodącego VC jest wysoce prawdopodobna — ale nieopublikowana.

Dlaczego to ważne?

Eka Robotics nie jest kolejnym startupem twierdzącym, że „rozwiązał problem zręczności". Jego wyróżnik jest metodologiczny, nie tylko retoryczny. Zakład na symulację jako główne źródło danych ma głębokie implikacje skalowania: koszt godziny obliczeniowej spada rokrocznie, podczas gdy koszt zebrania godziny danych teleopetacyjnych pozostaje stały lub rośnie. Jeśli sim-to-real gap zostanie rzeczywiście domknięty, Eka będzie mogło generować dane treningowe dwudziestu rzędów wielkości taniej niż konkurenci opierający się na ludzkich demonstracjach.

Dołożenie siły jako trzeciego kanału percepcji atakuje realny wąski gardło robotyki: większość obecnych systemów jest dobra w zadaniach „pick and place" z jednorodnymi obiektami, ale zawodzi przy zmiennych właściwościach fizycznych — różne wagi, faktury, elastyczności. VFA, jeśli działa jak pokazują dema, przenosi punkt kompetencji z „rozpoznaj i złap" na „poczuj i dostosuj", co jest fundamentalnie inną klasą problemu.

Wynik — czy startup dostarczy na obietnicę — będzie widoczny przy pierwszych komercyjnych wdrożeniach lub przy następnej rundzie finansowania z ujawnionymi danymi wydajnościowymi.

Co dalej?

Eka nie podało harmonogramu komercjalizacji ani partnerów przemysłowych. Obserwatorzy oczekują ogłoszenia rundy finansowania w perspektywie 3–6 miesięcy.

Kluczowym testem będą zewnętrzne benchmarki: czy VFA przewyższa VLA w standaryzowanych zadaniach zręcznościowych, takich jak DEXTEROUS manipulation benchmarks.

Firma aktywnie rekrutuje — ogłoszenia na Ashby obejmują inżynierów robotyki, ML i symulacji.

Źródła

Udostępnij ten artykuł

Powiązane artykuły