13 kwietnia 2026 · 5 min lekturyrobot guide dogvisually impairedLLM

Robot-pies, który mówi: LLM w służbie niewidomych

Okładka: Robot-pies, który mówi: LLM w służbie niewidomych

Naukowcy z Binghamton University opracowali prototyp czworonożnego robota przewodnika, który nie tylko prowadzi osoby niewidome do celu, ale prowadzi z nimi rozmowę — opisuje trasę przed wyjściem i komentuje otoczenie w czasie rzeczywistym. Praca, oparta na dużym modelu językowym połączonym z systemem planowania nawigacji, została zaprezentowana na konferencji AAAI 2026 i odpowiada na jedno z najtrudniejszych ograniczeń tradycyjnych psów przewodników: brak komunikacji słownej.

Najważniejsze w skrócie

  • Zespół prof. Shiqiego Zhanga z SUNY Binghamton zintegrował GPT-4 z czworonożnym robotem, tworząc system zdolny do prowadzenia dialogu nawigacyjnego z użytkownikiem
  • Robot oferuje dwa tryby komunikacji: opis trasy przed wyruszeniem (plan verbalization) oraz bieżący komentarz otoczenia podczas marszu (scene verbalization)
  • W teście z siedmioma prawnie niewidomymi uczestnikami system w wariancie pełnym uzyskał 4,83/5 za użyteczność i 4,50/5 za łatwość komunikacji
  • W symulacjach system poprawnie identyfikował zamierzone cele nawigacyjne w 94,8 proc. przypadków i obsługiwał silnie zniekształcone polecenia głosowe
  • Badanie ma charakter eksperymentalny: fizyczne ruchy robota podczas testów kontrolował zdalnie operator, system wymaga gotowej mapy budynku i nie był testowany na zewnątrz

Od smyczy do słowa

Wcześniejsze prace zespołu Zhanga skupiały się na uczeniu robotów-psów reagowania na szarpnięcia smyczy. Binghamton News Nowy system idzie o krok dalej: zamiast fizycznych sygnałów wprowadza pełnowartościowy dialog głosowy. Robot pyta użytkownika, dokąd chce dotrzeć, proponuje kilka wariantów trasy wraz z szacowanym czasem, a po wyborze trasy przez użytkownika prowadzi go, informując na bieżąco o napotkanych przeszkodach i charakterze otoczenia.

Architektura systemu opiera się na dwóch współdziałających warstwach: duży model językowy obsługuje warstwę konwersacyjną — interpretuje wypowiedzi użytkownika przez moduł zamiany mowy na tekst, zadaje pytania doprecyzowujące i zwraca odpowiedzi przez syntezę mowy. Osobny moduł planowania tras oblicza sekwencję kroków prowadzącą do celu, uwzględniając czas przejścia i przeszkody po drodze.

Jak podaje Binghamton University w oficjalnym komunikacie, system jest w stanie rozumieć około 20 poleceń głosowych — tyle, ile rozumie biologiczny pies przewodnik po intensywnym szkoleniu. Jednak, jak zauważa prof. Zhang, to dopiero punkt startowy: „Biologiczne psy rozumieją około 20 poleceń. W przypadku robotycznego psa przewodnika możemy po prostu wbudować GPT-4 z obsługą głosową — wtedy ma bardzo silne możliwości językowe".

1

Test z prawdziwymi użytkownikami — i jego granice

Do badania z udziałem ludzi rekrutowano siedmioro prawnie niewidomych uczestników w wieku 40–68 lat, z czego dwoje miało wcześniejsze doświadczenia z biologicznymi psami przewodnikami. Każdy uczestnik testował trzy warianty systemu: minimalną interakcję głosową podczas marszu, same opisy otoczenia oraz wariant pełny łączący opis trasy przed wyjściem z bieżącym komentarzem w czasie marszu.

Wyniki dla wariantu pełnego były najwyższe we wszystkich mierzonych kategoriach. Warto jednak odnotować istotne ograniczenie eksperymentu: fizyczne prowadzenie robota przez budynek realizował zdalnie operator-ekspert, a nie autonomiczny system nawigacji. Oznacza to, że wyniki badania opisują wyłącznie jakość warstwy dialogowej, a nie pełną autonomię robota.

Jak szczegółowo dokumentuje artykuł dostępny w serwisie arXiv (identyfikator 2603.12574), symulacje wykazały 94,8-procentową skuteczność w identyfikacji zamierzonych destynacji, a system zachowywał działanie nawet przy silnie zniekształconych poleceniach głosowych. W symulacjach rola użytkownika była odgrywana przez GPT-4, co — jak przyznają sami autorzy — może nie w pełni oddawać rzeczywiste wzorce komunikacji ludzkiej.

Niedobór psów przewodników jako tło problemu

Według szacowań organizacji Guiding Eyes for the Blind, w Stanach Zjednoczonych aktywnie pracuje około 10 000 psów przewodników, a jedynie ok. 2 proc. wszystkich osób niewidomych i słabowidzących korzysta z psiego wsparcia. National Federation of the Blind Wąskim gardłem są czas szkolenia — trwający latami — oraz fakt, że znaczna część psów nie przechodzi selekcji.

Roboty nie wymagają hodowli ani szkoleń. Nie przechodzą też na emeryturę po kilku latach służby. Z perspektywy skalowalności to istotna różnica. Badacze z Binghamton planują rozszerzyć testy o większe grupy uczestników, dłuższe dystanse i środowisko zewnętrzne, a docelowo zwiększyć autonomię ruchu samego robota.

Gdzie plasuje się ta praca na tle innych rozwiązań

Kilka innych grup badawczych pracuje nad robotycznymi pomocnikami dla osób niewidomych — od inteligentnych lasek (jak GuideCane z MIT) po systemy oparte na kamerach i haptyce. To, co wyróżnia podejście z Binghamton, to wybór konwersacyjnego dużego modelu językowego jako głównego interfejsu użytkownika, zamiast dotykowych sygnałów lub uproszczonych komend. Filozofia jest bliższa asystentowi głosowemu niż tradycyjnej robotyce asystywnej.

Zbliżone kierunki eksplorują też zespoły pracujące nad robotami do nawigacji w szpitalach i przestrzeniach publicznych, jednak tam odbiorcą poleceń jest robot, a nie osoba z niepełnosprawnością — kontekst i wymagania dotyczące niezawodności są więc odmienne.

Dlaczego to ważne?

Praca z Binghamton nie jest gotowym produktem — to dobrze udokumentowany dowód słuszności koncepcji. Jej znaczenie leży jednak w czymś więcej niż samym prototypie. Pokazuje, że integracja dużego modelu językowego z robotyką mobilną nie musi być domeną wielkich laboratoriów technologicznych. Akademicki zespół z ograniczonym budżetem zdołał zbudować system, który prawdziwie niewidomi użytkownicy ocenili jako użyteczny i komunikatywny.

Ważniejsze jest jednak przesunięcie paradygmatu: zamiast uczyć robota ograniczonego zestawu komend, zespół oddał użytkownikowi naturalny język jako interfejs. To zmienia relację człowiek–robot z relacji „operatora i narzędzia" w kierunku czegoś bliższego partnerstwu nawigacyjnemu. Dla osób z dysfunkcją wzroku, u których świadomość sytuacyjna jest z natury ograniczona, możliwość zapytania robota „co teraz mija po lewej stronie?" może mieć realne znaczenie dla poczucia bezpieczeństwa i autonomii.

Badanie ujawnia też ograniczenia, które precyzyjnie wyznaczają kierunek kolejnych prac: autonomia ruchu robota, odporność na warunki zewnętrzne i niezależność od stałego połączenia z chmurą to problemy, które muszą zostać rozwiązane zanim ten typ systemu opuści laboratorium.

Co dalej?

  • Zespół planuje przeprowadzenie szerszych badań użytkowych, zwiększenie autonomii ruchu robota oraz testy w środowisku zewnętrznym i na dłuższych dystansach
  • Kolejnym krokiem będzie praca nad bardziej zaawansowanymi metodami opisu otoczenia (scene verbalization) — obecna implementacja jest, jak przyznają autorzy, uproszczona
  • Otwartym pytaniem pozostaje kwestia zmniejszenia zależności od zewnętrznych usług chmurowych (takich jak GPT-4), co jest kluczowe dla niezawodności w warunkach rzeczywistych

Źródła

Udostępnij ten artykuł

Powiązane artykuły