https://discuss.pytorch.org/t/logsoftmax-vs-softmax/21386


요약

log softmax의 loss값이 softmax보다 좀 더 크다 (처벌 강화)

'이론 > 메모' 카테고리의 다른 글

모델링, 학습, 테스트  (0) 2019.02.20
용어 정리  (0) 2018.11.22
Object Detector  (0) 2018.11.07
데이터 전처리  (0) 2018.10.21
작은 네트워크  (0) 2018.09.23

수시 업데이트.



Modeling

 - 특징간 결합 시, 같은 도메인인지 살펴볼것.

 - CNN, RNN, FNN 등 각 네트워크 특징들을 잘 생각해볼것.

 - pooling, 특징간 결합 방법들은 의도에 따라 선택

 - 학습 성능이 낮을 시, 우선 단순한 방법으로 모델 크기를 늘려볼것. (유닛 수, 계층 반복 등)


Data

 - 모든 데이터는 전처리가 필수

 - 전처리 시, 의도대로 되었는지 꼭 시각화(또는 print)해서 확인


Train

 - output 특징에 따라 loss 선별 (상당히 중요)

    ex) 매우 작은 값의 regression이면, mse는 부적절 (l1, smooth l1이 나음)

 - 여러 loss가 나올 때, 가중치를 의도 및 실험적으로 선택 (생각 이상으로 영향을 많이끼침)

 - 직접적인 출력값을 얻기 어려워 보이면, 상대값을 학습

    ex) object detector에서 offset target 등.


Test

 - 적절한 척도를 우선적으로 완성할 것

   -> 또한 완벽하게 구현됬는지 충분히 테스트 해봐야함. (정답을 넣었을 때 최대 점수가 되는지 확인, 시각화 등)


'이론 > 메모' 카테고리의 다른 글

log softmax vs softmax  (0) 2019.03.06
용어 정리  (0) 2018.11.22
Object Detector  (0) 2018.11.07
데이터 전처리  (0) 2018.10.21
작은 네트워크  (0) 2018.09.23

fine-grained : 세밀한, 한 과정을 나누어 처리

    <-> coarse-grained : 세분화되지 않고 한꺼번에 처리되는 형태


activation map : feature map과 동일한 개념 (layer의 activation function까지 거쳐서 나온 행렬 데이터)


sparse : 희박한, activation된 값이 드물거나, 대부분 0으로 차있는 형태

           sparsity가 높다고도 말함. 

           l1 norm을 사용하면 weight의 sparsity를 높일 수 있음 (weight 값 자체를 낮추도록 학습하므로)

     <-> dense


'이론 > 메모' 카테고리의 다른 글

log softmax vs softmax  (0) 2019.03.06
모델링, 학습, 테스트  (0) 2019.02.20
Object Detector  (0) 2018.11.07
데이터 전처리  (0) 2018.10.21
작은 네트워크  (0) 2018.09.23

YOLOv3, SSD, FPN, RetinaNet 개념들 정리

https://medium.com/@jonathan_hui/what-do-we-learn-from-single-shot-object-detectors-ssd-yolo-fpn-focal-loss-3888677c5f4d



'이론 > 메모' 카테고리의 다른 글

모델링, 학습, 테스트  (0) 2019.02.20
용어 정리  (0) 2018.11.22
데이터 전처리  (0) 2018.10.21
작은 네트워크  (0) 2018.09.23
데이터 전처리  (0) 2018.09.22

계속 수정 예정.



Outlier 제거 : https://tariat.tistory.com/29

'이론 > 메모' 카테고리의 다른 글

용어 정리  (0) 2018.11.22
Object Detector  (0) 2018.11.07
작은 네트워크  (0) 2018.09.23
데이터 전처리  (0) 2018.09.22
음수 Regression Model  (0) 2018.09.22

네트워크(신경망) 크기가 작을 수록

내부 구조에 대한 영향을 많이 받음.


그래서 더 다양한 시도를 해볼 필요가 있음.

optimizer

dropout

batchnormal

l1 norm, l2 norm

등등

'이론 > 메모' 카테고리의 다른 글

Object Detector  (0) 2018.11.07
데이터 전처리  (0) 2018.10.21
데이터 전처리  (0) 2018.09.22
음수 Regression Model  (0) 2018.09.22
딥러닝은 도구일뿐  (0) 2018.07.25

입력되는 데이터의 종류가 달라도

크기 차이가 심하면 (ex 하나는 그냥 양수, 하나는 0~1 실수)

학습이 잘 안된다.


입력되는 모든 데이터들의 값 범위는 비슷해야함.

범위만 조정해줘도 성능이 훨씬 좋아진다.

'이론 > 메모' 카테고리의 다른 글

Object Detector  (0) 2018.11.07
데이터 전처리  (0) 2018.10.21
작은 네트워크  (0) 2018.09.23
음수 Regression Model  (0) 2018.09.22
딥러닝은 도구일뿐  (0) 2018.07.25

output에 음수가 포함될 경우에

중간 layer들의 activation func으로 relu를 쓰면 성능이 낮다.


이 때는 relu 대신 tanh를 쓰면 성능이 좋아지는 것을 확인함.

'이론 > 메모' 카테고리의 다른 글

Object Detector  (0) 2018.11.07
데이터 전처리  (0) 2018.10.21
작은 네트워크  (0) 2018.09.23
데이터 전처리  (0) 2018.09.22
딥러닝은 도구일뿐  (0) 2018.07.25

https://youtu.be/MSWCQ9lRA1Y


딥러닝만은 안된다

'이론 > 메모' 카테고리의 다른 글

Object Detector  (0) 2018.11.07
데이터 전처리  (0) 2018.10.21
작은 네트워크  (0) 2018.09.23
데이터 전처리  (0) 2018.09.22
음수 Regression Model  (0) 2018.09.22

+ Recent posts