본문 바로가기

Data_engineering/Deep_learning6

[Deeplearning] 경사하강법 (Gradient Descent) 경사하강법 (Gradient Descent) 경사하강법(Gradient Descent)은 딥러닝에서 가장 기본적인 최적화 방법 중 하나입니다. 이 방법은 손실 함수(Loss Function)을 최소화하는 파라미터(Weight)를 찾기 위한 방법으로, 학습률(learning rate)과 반복 횟수(iteration)를 조절하여 최적의 파라미터를 찾아냅니다. 경사하강법은 크게 두 가지 방법으로 나뉩니다. 첫 번째는 Batch Gradient Descent 방법으로, 전체 데이터셋을 한번에 학습시키는 방법입니다. 이 방법은 속도가 느리지만 정확한 결과를 얻을 수 있습니다. 두 번째는 Stochastic Gradient Descent 방법으로, 데이터셋 중에서 랜덤으로 하나의 데이터만 선택하여 학습시키는 방법입.. 2023. 3. 6.
[Deeplearning] 손실함수 (Loss Function) 손실함수 (Loss Function) 손실함수란? 손실함수는 딥러닝 모델의 학습 과정에서 모델의 예측값과 실제값의 차이를 계산하여 모델의 성능을 평가하는 함수입니다. 즉, 모델이 예측한 값과 실제 값 사이의 오차를 측정하는 지표로 사용됩니다. 손실함수의 종류 손실함수는 딥러닝 모델의 종류와 문제에 따라 다양한 종류가 존재합니다. 일반적으로 회귀 문제에는 평균 제곱 오차(MSE) 함수가 사용되고, 분류 문제에는 교차 엔트로피(Cross-Entropy) 함수가 사용됩니다. 평균 제곱 오차 (MSE) 평균 제곱 오차는 회귀 문제에서 가장 기본적으로 사용되는 손실함수입니다. 모델이 예측한 값과 실제 값의 차이를 제곱하여 평균을 구합니다. 이 값이 작을수록 모델의 성능이 좋다고 판단됩니다. 교차 엔트로피 (Cro.. 2023. 3. 6.