Paper Info



Field Content
Title The Forward-Forward Algorithm: Some Preliminary Investigations
Authors Geoffrey Hinton
Venue Google Brain
Year 2022
Link arxiv



Summary



Forward-Forward algorithm에 대해 제시한 논문



Problem Statement



What is wrong with backpropagation

1. cortex learning
 딥러닝에서 학습은 역전파라는 과정을 통해 이루어진다. 정답을 추론하기 위해 계산을 하면서 계산 과정을 기록하고, 정답과 비교해 얼마나 유사한지를 판단한 뒤, 거꾸로 되돌아가면서 가중치를 수정한다.
 반면 사람의 뇌에서 전체 추론과정을 역으로 되돌아가면서 뉴런 간의 연결을 강화하는 등의 학습이 일어난다는 근거는 없다. 오히려 학습은 뇌에서 특정 루프가 활성화되면서 이루어진다.
 뇌는 실시간으로 추론을 함과 동시에 학습을 한다. 그렇기에 BPTT(BackPropagation Through Time)과 같은 방식이 뇌에서 적용된다고 보기에는 개연성이 부족하다.

2. intoerance to black boxes
 역전파를 계산하기 위해서는 순전파 연산 과정에 대한 완벽한 정보가 필요하다. 즉, 순전파 과정에 블랙 박스를 삽입하면 해당 블랙박스를 미분할 방법을 찾지 않는 한 역전파는 더이상 수행할 수가 없다.  블랙박스가 필요없는 학습인 강화학습을 적용할 수도 있으나, 높은 분산으로 인해 대규모 신경망에서는 역전파랄 경쟁할 수 없다는 명확한 한계를 가지고 있다.

 본 논문에서 소개하는 forward-forward 방식의 경우 생물학적으로 뇌의 작동방식에 가까우며 블랙박스가 학습에 영향을 미치지 않고 강화학습처럼 분산이 크지도 않다. 역전파와 속도 면에서 비슷지만 학습 과정을 저장하거나 미분값을 전파하기 위해 멈추지 않고 학습이 가능하다는 장점이 있다.
 다만 역전파 알고리즘보다 다소 느리고, 논문에서 조사한 몇몇 문제에 대한 일반화 성능이 좋지 않기 때문에 전력소모를 고려하지 않는 한 역전파를 대체하기 힘들다. 뇌에 대한 학습 모델로서, 그리고 강화학습에 의존하지 않고 저전력 하드웨어를 활용하는 방법으로서 역전파에 비해 장점을 가진다.



Key Idea



The Forward-Forward Algorithm

논문에선 순전파 알고리즘을 볼츠만 머신과 노이즈 대조추정에서 영감을 받은 greedy한 다층 학습 절차라고 소개하고 있다. 아이디어는 단순하다. 기존 학습 방식이었던 순전파와 역전파를 두 개의 순전파(긍정적 경로와 부정적 경로)로 대체하는 것이다.



Methods



Overall Architecture

Key Equations



Results





Discussion





Insights





References



-