반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 모델경량화
- 2차원동전뒤집기
- 딥러닝학습
- 프로그래머스
- 확률과우도
- 스타수열 파이썬
- 프로그래머스 스타수열
- 자율성장 인공지능
- 메뉴리뉴얼 파이썬
- k겹 교차검증
- 스타수열
- 딥러닝
- 과적합방지
- 딥러닝파라미터
- 비트마스킹
- 프로그래머스 누적합
- 딥러닝 가중치 갱신
- 광고삽입 파이썬
- 프로그래머스광고삽입
- 데이터축소
- AI경량화
- MLE
- 인공신경망 학습
- 머신러닝 학습 검증
- 로지스틱 최대우도
- 인공지능 경진대회
- 카카오 코테 메뉴리뉴얼
- 카카오 메뉴리뉴얼
- 프로그래머스 2차원동전뒤집기
- 프로그래머스 2차원동전뒤집기 파이썬
Archives
- Today
- Total
머신러닝 개발자의 러닝머신
Optimization, 최적화 알고리즘 (작성중) 본문
반응형
최적화 알고리즘이란?
최적화 알고리즘은 딥러닝 학습과정에서 손실함수의 값을 최소화하는 함수로, 손실을 줄이기 위해 가중치 및 학습률과 같은 신경망의 속성을 변경하는 데에 사용된다. 모델의 가중치를 어떻게, 얼마나, 언제 변경하는 지를 함수에 따라 결정한다.
다음과 같이 다양한 최적화 알고리즘이 있으며 각각의 작동, 장단점을 이해하고 사용하는 것이 중요하다.
- Adagrad
- Adam
- Momentum
- Nestrov Accelerated Gradient(NAG)
- RMSProp
- Gradient Descent
- Stochastic Gradient Descent(SGD)
- Mini Batch Stochastic Gradient Descent (MB-SGD)
- SGD with momentum
1. Adagrad
Adagrad(Adaptive Gradient) 는 매개변수에 따라 학습률을
참고자료
반응형
'ML.AI > ML, DL' 카테고리의 다른 글
[딥러닝] 인공신경망의 학습: 순전파와 역전파 (0) | 2023.05.09 |
---|---|
[딥러닝] 손실 함수(Loss Function) (0) | 2023.05.06 |
[딥러닝] 활성화 함수(Activation Function) (0) | 2023.05.04 |
모델 경량화 (0) | 2023.04.23 |
인공 신경망(Artificial Neural Network, ANN)과 딥러닝 (0) | 2023.04.23 |