output에 음수가 포함될 경우에
중간 layer들의 activation func으로 relu를 쓰면 성능이 낮다.
이 때는 relu 대신 tanh를 쓰면 성능이 좋아지는 것을 확인함.