MSA (Memory Sparse Attention)
Architektura
MSA (Memory Sparse Attention) to architektura pamięci AI opracowana przez EverMind dla dużych modeli językowych i systemów agentowych wymagających bardzo długiego kontekstu oraz długoterminowej pamięci. Została zaprojektowana jako end-to-end trainable, scalable sparse latent-state memory framework, integrujący retrieval i generation w jednej różniczkowalnej pętli. Według materiałów EverMind, MSA łączy mechanizm Memory Sparse Attention, document-wise RoPE do ekstrapolacji na bardzo długie konteksty, kompresję KV cache z memory parallelism oraz Memory Interleave dla bardziej złożonego reasoning. Koncept jest pozycjonowany jako architektura / technologia pamięci dla LLM i agentów AI, a nie jako samodzielny model końcowy lub produkt użytkowy.