Robotyczny model VLA od Sharpa do kontaktowo-bogatych, bimanualnych zadań manipulacyjnych z użyciem wzroku, języka, siły i dotyku.
Zaawansowany multimodalny model AI Google DeepMind zaprojektowany do zadań wymagających głębokiego rozumowania, analizy danych i pracy z bardzo długim kontekstem.
Otwarty model językowy MoE od DeepSeek, zaprojektowany do rozumowania, programowania i pracy na długim kontekście przy wysokiej efektywności kosztowej.
Największy model z rodziny Llama 3.1 o 405 miliardach parametrów, zaprojektowany do zaawansowanego reasoning, kodowania i analizy danych.
Zaawansowany system AI do przewidywania struktur i interakcji biomolekularnych, obejmujący białka, DNA, RNA, ligandy, jony i modyfikacje chemiczne.
Vision-Language-Action model od Google DeepMind, który co-fine-tunuje model wizyjno-językowy (PaLI-X/PaLM-E) z danymi robotycznymi. Akcje robota reprezentowane są jako tokeny językowe.