Zespół badaczy z europejskich instytucji opublikował 11 maja 2026 r. w Nature Machine Intelligence artykuł-plan działania, który po raz pierwszy systematycznie opisuje, jak stosować wyjaśnialną sztuczną inteligencję (XAI) do modeli języka białek. Praca wskazuje, że rosnąca nieprzejrzystość tych modeli staje się realnym problemem nie tylko naukowym, ale i z zakresu bezpieczeństwa biologicznego.
Najważniejsze w skrócie
- Publikacja: „Towards the explainability of protein language models" — Nature Machine Intelligence, 11 maja 2026
- XAI podzielono na cztery warstwy analizy: dane treningowe, wejście, wewnętrzna struktura modelu oraz zachowanie wejście-wyjście
- Zidentyfikowano pięć ról XAI: ewaluator, multi-tasker, inżynier, trener i nauczyciel — rola nauczyciela uznana za docelową
- Brak interpretowalności modeli białkowych wskazany jako zagrożenie dla bezpieczeństwa biologicznego — model może ukrywać motywy immunoevasji
Modele białek osiągają SOTA, ale nie tłumaczą swoich decyzji
Modele języka białek (pLM, ang. protein language models) przejęły w ostatnich latach rolę wiodącego narzędzia w biologii obliczeniowej. AlphaFold 3 przewiduje struktury białek z precyzją porównywalną z metodami eksperymentalnymi. Generatywne pLM projektują nowe enzymy, peptydy o działaniu przeciwwirusowym i sekwencje pod zadane funkcje terapeutyczne. W zadaniach takich jak przewidywanie interakcji lek-cel czy projektowanie białek modele te osiągają wyniki na poziomie SOTA (ang. state of the art).
Problem ujawnia się jednak, gdy zadać pytanie o przyczynę. Dlaczego model generuje właśnie taką sekwencję? Które fragmenty aminokwasowe decydują o przewidywanej funkcji? Jakie wzorce rzeczywiście zakodowane są w 650-milionowych parametrycznych wagach ESM-2 czy podobnych architekturach opartych na transformerze? Na te pytania współczesne pLM nie odpowiadają — są czarnymi skrzynkami w pełnym sensie tego słowa.
Autorki artykułu, Andrea Hunklinger i Noelia Ferruz, argumentują, że dotychczasowa logika postępu — więcej danych, więcej parametrów, głębsze architektury transformerowe — nie przekłada się automatycznie na zrozumienie. Standardowe benchmarki mierzą skuteczność, nie przejrzystość. To luka, którą ich plan działania ma zacząć systematycznie wypełniać.
Cztery warstwy wyjaśnialności dla AI biologicznej
Artykuł proponuje ramy klasyfikacyjne XAI dedykowane modelom białkowym. Wyjaśnialność można analizować na czterech poziomach:
- Warstwa danych treningowych — które sekwencje białek faktycznie kształtują zachowanie modelu i gdzie pojawia się stronniczość zbioru treningowego
- Warstwa wejściowa — identyfikacja aminokwasów rzeczywiście wpływających na dane przewidywanie (odpowiednik metod saliency i attribution z NLP)
- Wewnętrzna struktura modelu — analiza głowic uwagi, neuronów, rzadkich autoenkoderów (SAE) i strumienia resztkowego w architekturach transformerowych
- Zachowanie wejście-wyjście — wyjaśnianie decyzji przez perturbacje, modele proxy (np. LIME, SHAP) i metody kontrafaktyczne
Ramy te nie są ograniczone wyłącznie do architektury transformerowej. Autorki wskazują, że mogą być stosowane również do modeli dyfuzyjnych, grafowych sieci neuronowych (GNN) oraz hybryd w stylu AlphaFold — czyli do całej ekologii nowoczesnych narzędzi bioinformatycznych.
Od ewaluatora do nauczyciela: pięć ról XAI w nauce o białkach
Na podstawie przeglądu literatury autorki wyodrębniły pięć ról, które XAI pełni (lub może pełnić) w badaniach nad białkami. Aktualnie dominuje rola ewaluatora: metody interpretowalności służą głównie do sprawdzenia, czy model nauczył się wzorców już znanych biologom — takich jak motywy strukturalne czy miejsca wiązania ligandów. To przydatna funkcja weryfikacyjna, ale ograniczona: nie pozwala odkrywać nowych zależności biologicznych, ulepszać architektury modelu ani wskazywać na artefakty danych treningowych.
Kolejne role — multi-tasker (przenoszenie wiedzy między zadaniami), inżynier (ulepszanie architektur) i trener (kierowanie procesem uczenia) — są stopniowo coraz rzadziej opisywane w literaturze, co wskazuje na niedojrzałość dziedziny. Rolą docelową jest nauczyciel: system XAI, który pozwala badaczom wydobywać z modelu autentycznie nową wiedzę biologiczną — wzorce nieznane wcześniej ludziom, odkrywane dzięki temu, że model przetrawił miliony sekwencji z baz takich jak UniProt.
Biosafety: dlaczego brak wyjaśnialności to nie tylko problem akademicki
Artykuł poświęca osobną uwagę konsekwencjom bezpieczeństwa biologicznego. Jeśli generatywny pLM jest nieinterpretowalny, może — bez wiedzy operatora — zakodować w projektowanym białku motywy immunoevasji, czyli fragmenty sekwencji umożliwiające unikanie odpowiedzi immunologicznej. Naukowiec patrzący jedynie na wynik (gotową sekwencję) może nie rozpoznać takiego zagrożenia.
Autorki wskazują, że dopiero XAI działające na poziomie nauczyciela — potrafiące jednoznacznie wskazać, że dany fragment sekwencji jest zachowany dlatego, że zakłóca działanie konkretnego receptora gospodarza — umożliwia naukowcom zatrzymanie procesu projektowania zanim pojawi się realne zagrożenie. To argument za tym, że wyjaśnialność nie jest luksusem akademickim, lecz warunkiem koniecznym odpowiedzialnego wdrażania AI w bioprojektowaniu.
Kontekst: jak XAI w białkach wypada na tle NLP?
W dziedzinie przetwarzania języka naturalnego metody wyjaśnialności — od LIME i SHAP przez mechanizmy uwagi po interpretable probing — są stosowane od lat i doczekały się rozbudowanego ekosystemu narzędziowego. Dla pLM analogiczne narzędzia dopiero powstają. Kluczowa różnica strukturalna polega na tym, że białka mają trójwymiarową konformację, a ta sama sekwencja może pełnić różne funkcje w różnych kontekstach komórkowych. To sprawia, że proste przeniesienie metod z NLP jest niemożliwe — konieczna jest adaptacja uwzględniająca fizykochemię aminokwasów i ewolucyjną historię sekwencji.
Prace takie jak ta opisana powyżej stanowią próbę wyznaczenia mapy drogowej dla tej adaptacji — zarówno na poziomie metodologicznym, jak i w warstwie infrastruktury ewaluacji i benchmarkowania interpretowalności biologicznej.
Dlaczego to ważne?
Biologia obliczeniowa wchodzi w fazę, w której to modele wielkoskalowe generują hipotezy badawcze, a nie tylko przetwarzają dane dostarczone przez ludzi. W tym kontekście pytanie o wyjaśnialność przestaje być akademickim problemem z pogranicza filozofii nauki, a staje się zagadnieniem technicznym o bezpośrednich konsekwencjach praktycznych. Badacz projektujący lek z użyciem generatywnego pLM musi być w stanie zweryfikować, co model „wie" o mechanizmach działania białka — inaczej wynik jest czarną skrzynką na czarnej skrzynce.
Praca Hunklinger i Ferruz jest pierwszym kompleksowym przeglądem XAI dedykowanym wyłącznie tej klasie modeli i proponuje konkretną taksonomię, którą inne grupy badawcze mogą adoptować lub rozszerzać. Dla całej dziedziny to ważny krok w kierunku standaryzacji: bez wspólnego języka dla interpretowalności niemożliwe jest porównywanie rozwiązań ani formułowanie wymagań regulacyjnych w kontekście biosafety. Jeśli ramy zaproponowane w tym artykule zostaną przyjęte przez społeczność, mogą przyspieszyć powstawanie narzędzi, które sprawią, że AI biologiczna będzie nie tylko skuteczna, ale i audytowalna.
Co dalej?
- Autorki wskazują weryfikację eksperymentalną (wet lab) jako następny konieczny krok — metody XAI muszą być walidowane nie tylko in silico, ale przez potwierdzenie biologicznych hipotez w laboratorium
- Artykuł identyfikuje brak standaryzowanych benchmarków interpretowalności dla pLM jako lukę do wypełnienia — analogiczną do roli, jaką GLUE i SuperGLUE odegrały dla NLP
- Rosnące zainteresowanie instytucji regulacyjnych i agencji biosafety AI w naukach biologicznych sugeruje, że ramy takie jak opisane mogą stać się punktem odniesienia dla wymogów audytowalności modeli używanych w projektowaniu białek terapeutycznych
Źródła
- Nature Machine Intelligence — Towards the explainability of protein language models
- Phys.org — Roadmap for safer protein AI


