Professional Documents
Culture Documents
Kans Review
Kans Review
(Kolmogorov–Arnold Networks)
src = https://arxiv.org/pdf/2404.19756
abstract
• KAN은 MLP의 유망한 대안으로 제시된다
방정식)에서)
Scaling Laws : 기존의 이론의 2n+1 을 적용하는 것이 아닌 임의의 깊이와 너비를 지정하는 것
MLP 에서 더 좋은 정확도나 더 빠른 시간을 위해 깊이와 너비를 조정하면 가중치 학습을 처음부터 해야하는데
KAN 에서는 그냥 제어점의 개수만 늘어서 추가학습을 하며 더욱 정교하게 만들면 된다고 한다
Interpretability
Sparsification( 희소화 )
MLP 에서는 ?
Loss function
strength weakness
• 해석 가능성 증대 • 높은 계산 비용
• 표현력 증대 • 아직도 제한된 해석 가능성
• 효율적인 학습 • 높은 차원에서는 MLP 보다
• 다양한 응용 가능성 가중치가 왜곡 될 가능성이 높음
• 기억력 향상 • 현 상황으로썬 테스트 케이스가 부족
When should I use it?
experience
experience
여러분이 만드는겁니다 ..
end