PL
Otwarta rodzina polskich modeli językowych rozwijana przez konsorcjum naukowe pod liderem Politechniki Wrocławskiej.
✓ Aktywny✓ Publiczny dostęp⚖ Open weightsLLM
Okno kontekstowe
8K (Mistral-based) / 128K (Llama 3.1-based)
tokenów
Parametry
8B / 12B / 47B (8x7B MoE) / 70B
parametrów
Data premiery
1 grudnia 2024
Dostęp:DownloadHostedWdrożenie:💻 Lokalnie☁ Cloud
Przegląd
Klasyfikacja
LLM
Dostęp i wdrożenie
PobieranieHostowane
LokalnieChmura
Wagi: Open weights
Kluczowe parametry
📏 Kontekst: 8K (Mistral-based) / 128K (Llama 3.1-based)
🧩 Parametry: 8B / 12B / 47B (8x7B MoE) / 70B
✓ Fine-tuning
📥 Wejście: tekst
Specyfikacja techniczna
Okno kontekstowe
8K (Mistral-based) / 128K (Llama 3.1-based)
tokenów
Parametry
8B / 12B / 47B (8x7B MoE) / 70B
parametrów
Licencja
CC BY-NC 4.0 (warianty „nc”) / Llama 3.1 Community License / Apache 2.0 (zależnie od wariantu)
Funkcje:✓ Fine-tuning
Modalności
⬇ Wejście (Input)
text
⬆ Wyjście (Output)
text
Możliwości i zastosowania
Natywne możliwości modelu
Wielojęzyczność
Zdolność modelu do rozumienia i generowania treści w wielu językach.
Kategoria: language
Długi kontekst
Zdolność modelu do pracy na długim kontekście i utrzymywania spójności przy dużej ilości danych wejściowych.
Kategoria: reasoning
Rozumowanie
Zdolność modelu do logicznego wnioskowania, analizowania zależności i wyprowadzania odpowiedzi na podstawie przesłanek.
Kategoria: reasoning
Kodowanie
Zdolność modelu do generowania, analizowania, poprawiania i wyjaśniania kodu.
Kategoria: coding
Architektura techniczna
Rdzeń architektury (Core Architecture)
Forma modelu (Model Form)
Techniki trenowania (Training Techniques)