Výskum
Autor: Redakcia AI Feed
Vysvetliteľnosť LLM v praxi: gradienty, attention aj SHAP majú odlišné limity
Komparatívna štúdia na arXiv porovnáva Integrated Gradients, Attention Rollout a SHAP a ukazuje, že rôzne explainability metódy ponúkajú iný kompromis medzi stabilitou, výpočtovou cenou a interpretovateľnosťou.