일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- github blog
- sudo pmset -c disablesleep
- github token
- 깃헙 토큰
- 구글애널리틱스
- 깃헙
- python basic
- github 블로그
- git 명령어
- 깃허브 토큰
- jekyll
- 깃헙 블로그
- nightly
- terminal command
- terminal 명령어
- GPU
- git command
- pandas
- github secret key
- github
- jekyll theme
- 깃허브
- github.io
- 나만의블로그
- github command
- 깃허브 블로그
- CUDA
- 잠자기해제
- hydejack
- 모니터연결
Archives
- Today
- Total
Tech-Logs of Data-Scientist
activation, dropout, batch normalization 순서 본문
SMALL
Deep Learning 모델구축 시, DL Module들의 순서를 파악하기위해 정보들을 정리해두었습니다.
- 순서 : batch normalization → activation → dropout
- 참조 : https://gaussian37.github.io/dl-concept-order_of_regularization_term/
반응형
LIST
'Python (Code) > DL' 카테고리의 다른 글
DARTS - TimeSeries Model 참조사항 (0) | 2023.05.13 |
---|---|
딥러닝 논문구현 참조 (0) | 2023.04.17 |
Mac에서 torch GPU사용 : [x]cuda, [o]mps (0) | 2022.12.03 |
Comments