인공신경망에서 학습을 통해 가중치 W의 값을 구하는 것이 목표다.
- 오차를 구한다
- 학습 계산을 위해, 가중치 초기값은 랜덤 설정한다. - 오차가 최소가 된다는 의미는?
- 정확도가 높다, 학습이 잘 되었다, 예측이나 분류가 잘 된다. - 오차가 최소가 될 때 까지 가중치 값을 구한다.
- 입력 데이터를 계속 넣어서 가중치를 업데이트 해 나간다.
경사하강법
함수의 기울기를 구하고 경사의 반대 방향으로 계속 이동시켜 극값에 이를때까지 반복
- 오차/손실 함수(error/loss function)를 이용하여 기울기의 크기를 줄임
학습률(Learning rate)
아래 그림에서 보다시피 학습률이 너무 낮으면 학습이 오래 걸리고
학습률이 너무 높으면 이상한 방향으로 튀어 나가 최소값을 못 찾는다.
다양한 옵티마이저
'Machine Learning > Deep Learning' 카테고리의 다른 글
Tensorflow - 이진 분류 문제의 인공신경망(ANN) (0) | 2022.12.28 |
---|---|
원핫인코딩 할 시 주의할 점 - Dummy Variable Trap (0) | 2022.12.28 |
Google Colab - 드라이브 연결하기(마운트) (0) | 2022.12.28 |
Back propagation(오차 역전파) (0) | 2022.12.27 |
인공신경망(ANN) 기초 (0) | 2022.12.27 |