Robocikowo>ROBOCIKOWO
Agenci

NLI (No-code / No-click)

1966AktywnyOpublikowano: 5 maja 2026Aktualizacja: 5 maja 2026Opublikowany
Paradygmat interakcji człowiek‑komputer, w którym użytkownik wyraża intencję w języku naturalnym, a system (zwykle LLM) wykonuje akcję bez konieczności klikania w menu, formularze ani przyciski.
Kluczowa innowacja
Zastąpienie graficznego interfejsu (GUI) i nawigacji menu/przyciskami przez bezpośrednie wyrażanie intencji w języku naturalnym (mowa lub tekst), gdzie LLM mapuje zdanie użytkownika na akcję, zapytanie lub wywołanie narzędzia bez kliknięć.
Kategoria
Agenci
Poziom abstrakcji
Paradigm
Poziom operacji
Aplikacja
Zastosowania
Asystenci kodu (Copilot, Cursor, Claude Code) — "napisz funkcję X" zamiast nawigacji po menu IDENL→SQL i analityka konwersacyjna (Vanna, Snowflake Cortex, Tableau Pulse)No-code generatory aplikacji i stron (v0, Lovable, Bolt) — opis intencji zamiast budowy w drag&dropKonfiguracja systemów enterprise (CRM, ERP) bez nawigacji po formularzachAsystenci głosowi w aplikacjach mobilnych i in-car (Siri, Google Assistant, Alexa)Dostępność: obsługa aplikacji przez osoby z ograniczeniami motorycznymi lub wzrokowymiOperacje agentowe — "zarezerwuj lot i prześlij potwierdzenie zespołowi" zamiast pięciu aplikacji

Jak działa

Pipeline składa się z czterech warstw: (1) wejście — tekst lub mowa (ASR), (2) rozumienie intencji — LLM lub klasyfikator NLU mapuje wypowiedź na schemat akcji + parametry, (3) realizacja — wywołanie narzędzi (function calling), zapytania do bazy (NL→SQL), generowanie dokumentu lub orkiestracja agenta, (4) zwrot rezultatu — naturalny tekst, dane strukturalne, dokument lub zmiana stanu UI. Kontekst sesji oraz pamięć (short-term + long-term) pozwalają na dialog wieloetapowy i odwołania anaforyczne.

Rozwiązany problem

Wysoki koszt poznawczy klasycznych GUI: użytkownik musi znać strukturę aplikacji, ścieżkę do funkcji i terminologię UI. NLI eliminuje ten koszt, pozwalając wyrazić cel bezpośrednio. Rozwiązuje też problem długiego onboardingu w aplikacjach enterprise oraz barierę dostępności (osoby z niepełnosprawnościami, użytkownicy mobilni, scenariusze hands-free).

Komponenty

Input layer (text / speech)Capture

Pole tekstowe lub mikrofon z ASR konwertujący mowę na tekst.

Intent understanding (LLM / NLU)Understand

LLM lub model NLU mapujący wypowiedź na schemat akcji wraz z parametrami i kontekstem.

Tool / function calling layerExecute

Mechanizm wywoływania funkcji, API i zapytań do baz, który realizuje rozpoznaną intencję.

Context & memoryState

Pamięć sesji oraz pamięć długoterminowa pozwalające utrzymać wątek i odwołania anaforyczne.

Result rendererRespond

Warstwa zwrotna: tekst, dane strukturalne, dokument lub aktualizacja UI; opcjonalnie TTS.

Disambiguation & fallbackRecover

Mechanizm pytań doprecyzowujących i degradacji do GUI/menu, gdy intencja jest niejednoznaczna.

Implementacja

Pułapki implementacyjne
Niejednoznaczność intencjiWysoka

Język naturalny jest wieloznaczny — bez pytań doprecyzowujących system wykonuje złe akcje.

Brak odkrywalności funkcjiWysoka

W GUI funkcje są widoczne; w NLI użytkownik nie wie, co system potrafi — wymaga onboardingu i przykładów.

Halucynacje przy wywołaniu narzędziKrytyczna

LLM może wywołać nieistniejącą funkcję lub podać złe parametry — konieczna walidacja schema.

Operacje destrukcyjne bez potwierdzeniaKrytyczna

„Usuń wszystkie" musi mieć etap potwierdzenia — w GUI chroni to confirm dialog, w NLI trzeba go dodać świadomie.

Latencja i kosztŚrednia

Każda interakcja to wywołanie LLM — wolniejsza i droższa od kliknięcia.

Trudność z precyzyjnym wyboremŚrednia

„Wybierz trzeci wiersz od góry, drugą kolumnę" — operacje pozycyjne są łatwiejsze klikiem.

Bariera językowa i akcentŚrednia

Jakość ASR i NLU spada dla dialektów, akcentów i kodów branżowych.

Ewolucja

1966
ELIZA (Weizenbaum, MIT) — pierwszy popularny prototyp interfejsu w języku naturalnym (terapeuta).
Punkt przełomowy
1972
SHRDLU (Winograd) — NLI manipulujący „blocks world" pokazuje powiązanie języka z akcją.
1995
Androutsopoulos et al. „Natural Language Interfaces to Databases" — formalizacja NL→SQL.
2009
Wolfram Alpha — silnik odpowiedzi z NLI nad ustrukturyzowaną wiedzą.
2011
Apple Siri — pierwsza masowa konsumencka NLI w smartfonie.
2022
ChatGPT — NLI nad LLM ogólnego przeznaczenia trafia do mainstreamu (no-code dla wiedzy).
Punkt przełomowy
2023
OpenAI Function Calling i ekosystem narzędzi — NLI staje się warstwą wywołującą API (no-click).
2024
v0 / Cursor / Lovable — NLI jako sposób tworzenia aplikacji i kodu w pełni bez klikania.
2025
Operator / Computer Use (Anthropic, OpenAI) — NLI rozszerzona o sterowanie GUI przez agenta zamiast użytkownika.
Szczegóły techniczne

Hiperparametry (konfigurowalne osie)

ModalityWysoka

Tekst, mowa lub multimodalność (tekst + obraz + mowa).

Tool surface sizeKrytyczna

Liczba i granularność narzędzi/funkcji udostępnionych modelowi.

Grounding strategyWysoka

Sposób ugruntowania odpowiedzi: RAG, struktura schema, ontologia, dokumenty.

Fallback policyŚrednia

Polityka degradacji: pytanie doprecyzowujące, sugestia GUI, odmowa.

Determinism (temperature)Średnia

Stopień losowości generacji — kluczowy dla operacji wykonawczych vs eksploracyjnych.

Paradygmat wykonania

Tryb główny
conditional
Wzorzec aktywacji
input_dependent