드레:
코딩 뿌시기
드레:
전체 방문자
오늘
어제
  • 분류 전체보기 (268)
    • Python (74)
      • Python 기초 (42)
      • Numpy (8)
      • Pandas (22)
    • Machine Learning (31)
      • Machine Learning (1)
      • Deep Learning (27)
    • AWS (22)
      • RDS (3)
      • EC2 (9)
      • Lambda (8)
      • S3 (2)
    • MySQL (24)
    • Git (8)
    • Streamlit (12)
    • REST API (22)
    • Java (24)
    • Android (36)
    • Debugging (15)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • Retrofit2
  • 네이버 API
  • 액션바
  • github
  • AWS
  • 딥러닝
  • aws s3
  • Streamlit
  • Callback
  • API
  • 깃이그노어
  • GET
  • 안드로이드 스튜디오
  • CNN
  • flask
  • pandas
  • Python
  • AWS Lambda
  • 서버리스
  • volley
  • Lambda
  • JWT
  • Transfer Learning
  • tensorflow
  • Ann
  • rest api
  • fine tuning
  • EC2
  • Java
  • serverless

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
드레:

코딩 뿌시기

Gradient Descent(경사하강법), Optimizer 종류
Machine Learning/Deep Learning

Gradient Descent(경사하강법), Optimizer 종류

2022. 12. 27. 17:38

인공신경망에서 학습을 통해 가중치 W의 값을 구하는 것이 목표다.

 

  1.  오차를 구한다
    - 학습 계산을 위해, 가중치 초기값은 랜덤 설정한다.
  2.  오차가 최소가 된다는 의미는?
    - 정확도가 높다, 학습이 잘 되었다, 예측이나 분류가 잘 된다.
  3.  오차가 최소가 될 때 까지 가중치 값을 구한다.
    - 입력 데이터를 계속 넣어서 가중치를 업데이트 해 나간다.

 

경사하강법

 

함수의 기울기를 구하고 경사의 반대 방향으로 계속 이동시켜 극값에 이를때까지 반복

  • 오차/손실 함수(error/loss function)를 이용하여 기울기의 크기를 줄임

 

 

 

 

 

학습률(Learning rate)

 

아래 그림에서 보다시피 학습률이 너무 낮으면 학습이 오래 걸리고

학습률이 너무 높으면 이상한 방향으로 튀어 나가 최소값을 못 찾는다.

 

 

다양한 옵티마이저

'Machine Learning > Deep Learning' 카테고리의 다른 글

Tensorflow - 이진 분류 문제의 인공신경망(ANN)  (0) 2022.12.28
원핫인코딩 할 시 주의할 점 - Dummy Variable Trap  (0) 2022.12.28
Google Colab - 드라이브 연결하기(마운트)  (0) 2022.12.28
Back propagation(오차 역전파)  (0) 2022.12.27
인공신경망(ANN) 기초  (0) 2022.12.27
    'Machine Learning/Deep Learning' 카테고리의 다른 글
    • 원핫인코딩 할 시 주의할 점 - Dummy Variable Trap
    • Google Colab - 드라이브 연결하기(마운트)
    • Back propagation(오차 역전파)
    • 인공신경망(ANN) 기초
    드레:
    드레:

    티스토리툴바