Densenet 한 단 추가하기 (+ mish 사용) #52
chanyub
started this conversation in
Show and tell
Replies: 1 comment
-
"방법 : SATRN모델의 인코더로 쓰이는 DeepCNN300에 transition, block 하나씩 추가," -> 이 부분 코드도 같이 올려주시면 좋을 것 같습니다~~ |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
실험 1 :
가설 : 레이어가 한 단 더 깊어지면 성능이 향상 되지 않을까?
방법 : SATRN모델의 인코더로 쓰이는 DeepCNN300에 transition, block 하나씩 추가, 광원님이 올려주신 mini모델로 실험
결과 : 성능이 잘 나오는 듯 싶더니 30epoch 쯤부터 오히려 성능상승 곡선이 부진함 => 성능 하락 (wandb 있었는데 실수로 지움 ㅠㅠ)
실험 2 :
가설 : 성능 상승이 부진한 이유가 ReLU에서 0 이하 정보를 손실시키기 때문은 아닐까?
방법 : Densenet 한 단 추가한 모델의 activation function을 ReLU대신 mish로 변경
결과 : 아래 사진처럼 기존 mini 모델보다 안정적으로 상승
실험 2 코드
(DeepCNN300 대신 이거 사용하면 됩니다)
실험 2 GPU 사용량 (batch_size = 360)
실험 3 :
가설 : Densenet한 단을 더 쌓아서가 아니라 그냥 mish가 좋은게 아닐까?
방법 : Densenet 안 쌓고 mish를 사용한 모델을 돌려봄
결과 : 아래 사진처럼 안 쌓고 mish를 쓴게 가장 좋은 결과가 나옴
=> 결론 : Densenet을 한 단 추가하지말고 ReLU를 mish로 바꾸는게 성능 향상될 것
Beta Was this translation helpful? Give feedback.
All reactions