[Paper] Surrogate Gradient Learning in Spiking Neural Networks
1. 논문 정보
- Title: Surrogate Gradient Learning in Spiking Neural Networks
- Authors: Emre O Neftci et al.
- Year: 2019
2. 한 줄 요약 ⭐
Self-Attention만으로 sequence modeling을 수행하는 구조 제안
3. Problem
- RNN은 병렬화 어려움
- long-range dependency 문제
4. Key Idea ⭐
- Self-Attention으로 전체 sequence 관계 계산
- recurrence 제거
5. Method
- Encoder / Decoder 구조
- Multi-head attention
- positional encoding
6. Results
- BLEU score 향상
- 학습 속도 개선
7. Insight ⭐⭐⭐ (가장 중요)
- Attention만으로도 충분한 이유는?
- 구조 단순화 vs 성능 trade-off
- 내 연구(SNN)에 적용 가능성?
8. 한계
- 계산량 O(n^2)
- 긴 sequence에서 비용 증가