일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- GPU
- git command
- hydejack
- 깃허브 토큰
- github
- python basic
- github secret key
- 모니터연결
- jekyll theme
- github 블로그
- github token
- 깃헙
- 깃헙 토큰
- terminal command
- github command
- github blog
- pandas
- 깃허브
- 잠자기해제
- nightly
- CUDA
- jekyll
- 깃헙 블로그
- git 명령어
- 나만의블로그
- terminal 명령어
- 깃허브 블로그
- sudo pmset -c disablesleep
- 구글애널리틱스
- github.io
Archives
- Today
- Total
Tech-Logs of Data-Scientist
activation, dropout, batch normalization 순서 본문
SMALL
Deep Learning 모델구축 시, DL Module들의 순서를 파악하기위해 정보들을 정리해두었습니다.
- 순서 : batch normalization → activation → dropout
- 참조 : https://gaussian37.github.io/dl-concept-order_of_regularization_term/
반응형
LIST
'Python (Code) > DL' 카테고리의 다른 글
DARTS - TimeSeries Model 참조사항 (0) | 2023.05.13 |
---|---|
딥러닝 논문구현 참조 (0) | 2023.04.17 |
Mac에서 torch GPU사용 : [x]cuda, [o]mps (0) | 2022.12.03 |
Comments