일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- git 명령어
- github blog
- jekyll
- github 블로그
- 나만의블로그
- github command
- 깃허브 토큰
- github
- git command
- GPU
- 모니터연결
- nightly
- github secret key
- 깃헙 토큰
- pandas
- github token
- hydejack
- sudo pmset -c disablesleep
- 깃헙 블로그
- CUDA
- github.io
- jekyll theme
- 구글애널리틱스
- 깃허브
- terminal command
- 잠자기해제
- 깃헙
- 깃허브 블로그
- terminal 명령어
- python basic
Archives
- Today
- Total
목록
반응형
Model Theory/DL
반응형
(1)
반응형
반응형
Tech-Logs of Data-Scientist
역전파(Back Propagation)란?
DNN에서 예측값과 실제값의 차이를 최소화로 하도록, 가중치를 업데이트 하는 과정이 필요함 $w_{ij}^{l}$를 l번째 레이어의 i번째 노드에서 다음번째 레이어의 j번째 노드로 갈 때 연결되는 가중치(weight)라고 하면, $w_{ij}^{l}$가 변동되면 다음 레이어(l+1번째)의 j번째 노드에서 연결되는 가중치에 영향을 끼침 즉, $w_{ij}^{l}$의 편미분을 구하기 위해서는 다음번째 레이어의 가중치에 대한 편미분 값이 필요함 따라서, 역전파는 순전파(Foward Propagation)를 통해서 모든 가중치를 얻은 다음, 반대방향(Backword)으로 편미분값을 구한 다음에 이를 반영하여 가중치를 업데이트 해주는 과정 참조 : Youtube
Model Theory/DL
2022. 12. 10. 12:20