[ML] sigmoid vs softmax
sigmoid
- Logistic Regression
 - binary classification (0,1)
 - 최종 노드의 activation function!
 - cost function은 binary cross entropy(logistic cost)
    
loss='binary_crossentropy'
 - 확률의 총합은 1이 아님
 - 큰 출력값이 해당 클래스를 가질 가능성이 높다는 것이지만 실제 확률은 아님
 
softmax
- multi classification
 - 최종 노드 또는 hidden layer 노드의 activation function!
 - cost function은 cross entropy
    
loss='categorical_crossentropy'
 - 확률의 총합은 1
 - 각 클래스의 출력값은 확률을 나타낸다.
 
cross-entropy
categorical cross entropy
훈련 데이터의 label(target)이 원,핫 vector 이면 CategoricalCrossentropy
sparse categorical cross entropy
훈련 데이터의 label(target)이 정수이면 SparseCategoricalCrossentropy
참고
[1] https://velog.io/@ann9902/Sigmoid-vs-Softmax
          이 문서는
            jhy156456에 의해 작성되었습니다.
          
          마지막 수정 날짜:2022-12-18 15:10:00