output에 음수가 포함될 경우에

중간 layer들의 activation func으로 relu를 쓰면 성능이 낮다.


이 때는 relu 대신 tanh를 쓰면 성능이 좋아지는 것을 확인함.

'이론 > 메모' 카테고리의 다른 글

Object Detector  (0) 2018.11.07
데이터 전처리  (0) 2018.10.21
작은 네트워크  (0) 2018.09.23
데이터 전처리  (0) 2018.09.22
딥러닝은 도구일뿐  (0) 2018.07.25

+ Recent posts