Robocikowo
Robocikowo
Wiadomości
AI
Roboty
Firmy AI
Poznaj AI
Ctrl
K
Skocz do
Przegląd
Powiązania
Powrót do katalogu
Vision-Language-Action
Multimodalne
Architektura VLA łączy modele wizyjno-językowe z predykcją akcji robota. Umożliwia sterowanie robotem na podstawie instrukcji w języku naturalnym i obserwacji środowiska.
Powiązania
Powiązane modele
MoDE-VLA
Nexus - TEST
GPT
Wróć do katalogu konceptów