경사하강법1 [머신러닝] 10주차 학습 알고리즘 최적화 : 경사하강법(Gradient Descent) 학습 정확도 검증 정확도예측 정확도 - 예측이 잘되었는지도 확인 보통 8:2 . 8:1:1 7:3 7:1.5:1.5 경사하강법 (Gradient Descent) ▪ 함수의 최소값을 찾는 반복적인 최적화 알고리즘 (곡선의 꼭짓점 찾기 = 기울기 0인 곳)▪ 경사 하강을 이용하여 함수의 최소값을 찾는 방법 ▪임의의 지점에서 시작하여 기울기의 음수에 비례하도록 움직임 ▪ linear regression, logistic regression, SVM and neural network을 위한 최적화된 파라미터를 찾음 손실함수- 실제값과 예측값의 차이를 구하는 함수 ▪ 오차와 손실함수는 비례 관계 ▪ 머신러닝 학습에서 손실.. 2024. 8. 22. 이전 1 다음