
Method using evolutionary algorithms to automatically discover effective weight and layer combinations of open-source foundation models.
🔬 Research🔬 Research only⚖ Open weightsWyspecjalizowane AIModel multimodalnyLLM
Parametry
7B / 10B
parametrów
Data premiery
21 marca 2024
Dostęp:DownloadHostedWdrożenie:💻 Lokalnie☁ Cloud
Przegląd
Klasyfikacja
Wyspecjalizowane AIModel multimodalnyLLM
Dostęp i wdrożenie
PobieranieHostowane
LokalnieChmura
Wagi: Open weights
Kluczowe parametry
🧩 Parametry: 7B / 10B
📥 Wejście: tekst, obraz
Specyfikacja techniczna
Parametry
7B / 10B
parametrów
Licencja
Apache 2.0 (code, EvoLLM-JP-A-v1-7B, EvoVLM-JP-v1-7B); Microsoft Research License (EvoLLM-JP-v1-7B/10B — research-only)
Modalności
⬇ Wejście (Input)
textimage
⬆ Wyjście (Output)
text
Wyniki benchmarków
6 benchmarków
MGSM-JA
Accuracy · EvoLLM-JP-v1-7B, Japanese math word problems
52.0%
📄 Sakana AI / arXiv:2403.13187
Surpasses base models Shisa Gamma 7B (9.6), WizardMath-7B-V1.1 (18.4), Abel-7B-002 (30.0).
MGSM-JA
Accuracy · EvoLLM-JP-v1-10B
55.6%
📄 Sakana AI / arXiv:2403.13187
MGSM-JA
Accuracy · EvoLLM-JP-A-v1-7B (Apache 2.0 variant)
52.4%
📄 Sakana AI / GitHub README
Japanese lm-evaluation-harness (avg of 9 tasks)
Average score · EvoLLM-JP-v1-7B; exceeds prior 70B Japanese SOTA
70.5
📄 Sakana AI / arXiv:2403.13187
JA-VG-VQA-500
ROUGE-L · EvoVLM-JP-v1-7B Japanese visual question answering
19.70
📄 Sakana AI / arXiv:2403.13187
JA-VLM-Bench-In-the-Wild
ROUGE-L · EvoVLM-JP-v1-7B; beats LLaVA-1.6-Mistral-7B (41.10) and Japanese Stable VLM (40.50)
51.25
📄 Sakana AI / arXiv:2403.13187
Źródła i powiązane strony
8 źródeł
WebEvolutionary Model Merge - Sakana AIRepoEvoLLM GitHubPaperEvolutionary Optimization of Model Merging Recipes (arXiv:2403.13187)PaperEvolutionary optimization of model merging recipes — Nature Machine Intelligence (2025)RepoSakanaAI/EvoLLM-JP-v1-7B (Hugging Face)RepoSakanaAI/EvoLLM-JP-v1-10B (Hugging Face)RepoSakanaAI/EvoLLM-JP-A-v1-7B (Hugging Face)RepoSakanaAI/EvoVLM-JP-v1-7B (Hugging Face)
Przeglądaj powiązane tematy