Back-propagation
Downstream gradient를 upstream gradient와 local gradient를 활용해서 구할 수 있다.
Computational Graph
복잡한 함수를 small function으로 쪼갠다는 것이 핵심
기본적으로 upstream gradient와 local gradient를 곱해서 downstream gradient를 구한다.
추가적으로 Sigmoid 단위로 묶으면 좀 더 편할 수 있다.
추가적으로 위에서 나와있는 것처럼 Computational graph representation은 유일하지 않다
→ local gradient를 쉽게 표현할 수 있는 방향으로 computation al graph를 짜는 것이 유리하다.