1. 분류 문제에서의 활성화 함수 (Activation Function)
Sigmoid
- 2개의 분류 문제를 다룰 때 쓰는 활성화 함수
- 알려지지 않는 파라미터를 데이터로부터 추정해 0과 1로 분류하는 것
Softmax
- 3개 이상의 분류 문제를 다룰 때 쓰는 활성화 함수
- 데이터를 0~1사이의 값으로 정규화하여 출력되는 값들의 총 합이 1이 되는 함수
2. 분류 문제에서의 손실 함수(Loss Function)
binary_crossentropy
- 2개의 분류 문제를 다룰 때 쓰는 손실 함수
categorical_crossentropy
- 3개 이상의 분류 문제를 다룰 때 쓰는 손실 함수
- 레이블(y값)이 원핫 인코딩되어 있는 경우에 적용
sparse_categorical_crossentropy
- 3개 이상의 분류 문제를 다룰 때 쓰는 손실 함수
- 레이블(y값)이 레이블 인코딩되어 있는 경우에 적용
'Machine Learning > Deep Learning' 카테고리의 다른 글
Tensorflow - Dropout 사용법 (0) | 2022.12.29 |
---|---|
Tensorflow - Overfitting, Underfitting 개념 (0) | 2022.12.29 |
Tensorflow - 3개 이상 분류 문제의 인공신경망(ANN) (0) | 2022.12.29 |
Tensorflow - 콜백 EarlyStopping 사용법 (0) | 2022.12.29 |
Tensorflow - Validation(검증)을 사용하는 방법 (0) | 2022.12.29 |